科技
1 小时前
ArXiv 将禁止上传充满 AI 垃圾论文的研究人员
ArXiv 是一个流行的预印本学术研究平台,它正在采取新的举措,试图减少包含 AI 垃圾的论文数量。如果一篇论文有“无可争议的证据表明作者没有检查
ArXiv 是一个流行的预印本学术研究平台,它正在采取新的举措,试图减少包含 AI 垃圾的论文数量。
ArXiv 计算机科学部门主席托马斯·迪特里奇 (Thomas Dietterich) 表示,如果一篇论文有“无可争议的证据表明作者没有检查 LLM 生成的结果”,例如 LLM 留下的幻觉引用或“元评论”,作者将被禁止在 ArXiv 一年内使用。未来的 ArXiv 提交内容也必须在“信誉良好的同行评审场所”接受。
以下是他在 X 上所说的话:
> @arxiv 作者请注意:我们的行为准则规定,通过以论文作者的身份署名,每位作者对其所有内容承担全部责任,无论内容是如何生成的。
> 如果生成式人工智能工具生成不恰当的语言、抄袭内容、有偏见的内容、错误、错误、不正确的引用或误导性内容,并且该输出包含在科学作品中,则由作者承担责任。
> 我们最近明确了对此的处罚。如果提交的内容包含无可争议的证据表明作者没有检查 LLM 生成的结果,这意味着我们不能相信论文中的任何内容。
> 处罚是禁止 arXiv 一年,随后要求后续提交的 arXiv 提交必须首先在信誉良好的同行评审场所接受。
> 无可争议的证据示例:幻觉参考资料、法学硕士的元评论(“这是一份 200 字的摘要;您希望我做任何更改吗?”;“此表中的数据是说明性的,请用您实验中的真实数字填写”)
迪特里希告诉 404Media,作者可以对禁令决定提出上诉。他还指出,这项政策仅适用于“证据确凿的案件”,并且“我们的内部流程要求首先由一名主持人记录问题,然后由部门主席在实施处罚之前确认。”
去年,ArXiv 还更新了其政策,以减少人工智能的溢出,只允许发表经过同行评审并被会议或期刊接受的计算机科学评论文章和立场文件。 ArXiv 当时表示:“大型语言模型的出现使得这类内容相对容易按需制作,而且我们收到的大多数评论文章只不过是带注释的参考书目,没有对开放研究问题进行实质性讨论。”
原文
ArXiv will ban researchers who upload papers full of AI slop
ArXiv, a popular platform for preprint academic research, is taking a new step to attempt to reduce the volume of papers that include AI slop. If a paper has "incontrovertible evidence that the authors did not check the