MIT 科技评论 - 本周热榜 04月28日 00:01
AI代笔痕迹遍布学术圈,数百篇论文被抓现行
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Nature专栏报道揭露,大量学术论文未披露AI使用痕迹,甚至出现在顶级期刊。论文中频繁出现“作为一个AI语言模型”等AI特征用语,暴露了作者复制粘贴AI生成内容的行为。学者们通过建立数据库追踪此类现象,发现问题论文不仅数量多,而且广泛分布于医学、计算机科学等多个学科。更令人担忧的是,这些未经审核的内容已开始被引用传播,可能污染科学知识。出版界虽已制定AI使用政策,但执行效果堪忧,现有审查体系存在漏洞,学术诚信面临严峻挑战。

🤖 大量学术论文未按规定披露AI使用痕迹,在论文中出现“作为一个AI语言模型”、“重新生成回应”等AI特征用语,暴露了作者复制粘贴AI生成内容的行为。

📚 学者Alex Glynn创建“Academ-AI”数据库,已收录超700篇包含明显AI生成痕迹但未声明的学术文献案例,其中13%的论文发表在Elsevier、Springer Nature等知名出版商的期刊上。

🔬 研究显示,医学、计算机科学和工程学是AI未披露使用的重灾区,但环境科学、社会学等领域也均有涉及,表明AI已广泛渗透到多个学科。

⚠️ 已有论文因包含AI生成的奇怪短语或虚假参考文献被撤稿,但也有出版商采取“隐形修正”方式,悄无声息地删除AI痕迹,威胁科学诚信。

用 AI 辅助阅读文献、润色表达乃止论文撰写,可能已经成为许多人研究工作中的一部分了,方便固然方便,但 AI 的大量使用也引发了许多乱象。最近 Nature 专栏的一篇报道就揭露出,数百篇发表在权威学术期刊上的论文被发现含有明显的 AI 生成痕迹,而作者却未按规定披露 AI 的使用。更令人担忧的是,这些未披露 AI 使用的论文不仅出现在小型期刊,还出现在由 ElsevierSpringer Nature 和 IEEE 等顶级学术出版商发行的期刊中。

“作为一个 AI 语言模型...”

问题最先通过一些散落在论文文本中的、极具辨识度的 AI 痕迹暴露出来。一些科学诚信的监督者们注意到,一些学术论文中竟出现了诸如“regenerate response”(重新生成回应)这样的短语,几乎是作者在复制粘贴 AI 生成内容时“手滑”的直接证据。

类似的“露馅”短语还有不少。例如,“as an AI language model”(作为一个 AI 语言模型)、“Certainly, here are…”(当然,这里是……)以及“As of my last knowledge update…”(截至我最后的知识更新……)等。这些通常是 AI 在回答问题时自带的礼貌性开场白、组织性提示语,或是对其自身信息局限性的免责声明。这种明显的 AI 用语,居然大量堂而皇之地出现在了正式的学术论文中。

(来源:Learned Publishing)

肯塔基大学路易斯维尔分校的研究素养与传播讲师 Alex Glynn 是系统追踪这一现象的学者之一。他创建了一个名为“Academ-AI”的在线数据库,专门收录那些包含明显 AI 生成痕迹但未声明的学术文献案例。截至目前,该数据库已记录了超过 700 篇此类论文。Glynn 在一项对数据库中前 500 个案例的初步分析中发现,这个问题的影响范围远超预期。数据显示,这些存在问题的论文并非仅仅出现在影响力较低或边缘性的出版物中,其中高达 13% 的论文发表在由 ElsevierSpringer Nature 和 MDPI 等国际大型、知名学术出版商出版的期刊上。

图丨按出版商分类的文章/论文数量(来源:arXiv)

波兰卡托维兹经济大学的研究员 Artur Strzelecki 对一些知名期刊进行了研究,也同样发现了这一现象。他在学术期刊 Learned Publishing 上发表的研究,识别了 89 篇发表在被 Web of Science 或 Scopus 数据库收录、拥有影响因子或 CiteScore 指标的期刊上的论文,这些论文均带有明确的 ChatGPT 生成内容的“印记”。令人震惊的是,其中 64 篇论文(占比超过 70%)所在的期刊在其各自学科领域内位于 Scopus 数据库排名的前 25%(即 Q1 区),更有 28 篇论文所在的期刊排名在前 10%(即 90th percentile 以上)。例如,影响因子极高的顶级期刊如 Trends in Analytical Chemistry 和 Trends in Food Science & Technology 也未能幸免,其发表的文章中也出现了此类 AI 痕迹。

这些研究还揭示了问题的学科分布。Strzelecki 的分析显示,在识别出的 89 篇论文中,医学(19 篇)、计算机科学(17 篇)和工程学(16 篇)是重灾区,但环境科学(10 篇)、社会学、教育学、管理学(各 7 篇)以及经济学(6 篇)等领域也均有涉及。这表明 AI 的未披露使用已广泛渗透到多个学科领域。

图丨不同学科的分布情况(来源:Learned Publishing)

更令人担忧的是,这些可能包含未经验证内容的论文已经开始进入正常的科学交流循环中。斯特泽莱茨基的研究指出,截至 2024 年 9 月 30 日,他所分析的 89 篇论文中,已有 60 篇被后续的其他学术文献引用,总引用次数达到 528 次。这意味着,潜在的、由 AI 引入的错误或不准确信息,可能正在通过引用链被放大和传播,对科学知识的积累造成潜在污染。

出版界的应对与尴尬

对于那些已经被发现 AI 未披露使用的论文,基本上都已经被做了撤稿处理。例如,知名学术监督网站“撤稿观察”(Retraction Watch)最近就公布了多起相关案例。例如,一位谷歌工程师的预印本手稿因包含 AI 生成的奇怪短语(如“squared blunder”和“info picture”)而被撤回;另一篇完全由 ChatGPT 撰写的关于千足虫的预印本,因包含虚假参考文献,在短暂上线后即被撤下。

图丨上述谷歌工程师的论文中有两个短语被认定为人工智能生成(来源:Retraction Watch)

但除了公开的撤稿,还有一种更为隐蔽的处理方式——“隐形修正”(stealth corrections)也引起了学界警惕。Glynn 与法国图卢兹大学的计算机科学家 Guillaume Cabanac 等人的研究发现,一些出版商在发现已发表论文中存在 AI“指纹”短语后,并未发布正式的勘误或撤稿声明,而是悄无声息地在后台修改了在线版本,将这些暴露性的短语删除。

例如,Toxicology 此前就有一篇论文中的“regenerate response”短语在没有任何公开说明的情况下消失了。Glynn 和 Cabanac 的研究追踪到了超过 100 篇经历了此类“沉默的”发表后修改的文章,其中部分修改就与未披露的 AI 使用有关。“这种做法威胁到科学诚信,”Cabanac 表示,“透明的记录保存对确保已发表内容的可信度至关重要。”

在那些确实发布了正式更正的案例中,结果同样令人失望。在 11 篇正式修正的论文中,仅有 1 篇最终符合相关期刊的 AI 披露政策。大多数情况下,AI 生成的文本被移除或用括号标记,但并未按要求在正文中添加 AI 使用声明。

面对 AI 技术带来的冲击,如今全球主要的学术出版商和期刊组织大都已经制定或更新了关于在学术出版中使用 AI 的政策指南,然而,就上述这些处理情况来看,这些政策似乎没有得到有效的实施。

就目前而言,学术界对 AI 使用的已经形成两大基本共识:

其一,人工智能不能被列为作者。这是几乎所有主流机构和期刊(包括国际医学期刊编辑委员会 ICMJE、出版伦理委员会 COPE、NatureScienceCellThe LancetJAMA等)的共同立场。理由很明确:AI 无法承担作者所必须承担的责任,即对研究工作的原创性、准确性和完整性负责。

其二,使用人工智能辅助必须进行披露。大多数出版商要求,如果作者在研究或写作过程中使用了 AI 工具(尤其是用于生成文本、图像或代码),必须在稿件的特定部分(如方法、致谢、或投稿信中)明确声明,说明使用了何种工具以及具体用途。

然而,在具体执行层面,各家政策存在差异。Nature 杂志要求,若使用大型语言模型,必须在“方法”部分详细说明,并禁止使用 AI 生成的图像(仅有极少数例外)。Science 杂志的政策则允许在论文的“方法”章节说明后,正当地采用 AI 制作插图、撰写论文内容,但 AI 本身不能作为作者或合著者。Cell 杂志也禁止将 AI 列为作者,要求作者在使用 AI 辅助技术时需在投稿信和声明部分注明,并对作品的准确性和原创性负全责,未获编辑明确许可不得使用 AI 生成图像。

图丨主要期刊的 AI 使用政策(来源:互联网整理)

与此同时,一些出版商的政策也在适应 AI 工具日益普及的现实。例如,英国物理学会出版社(IOP Publishing)最初要求作者声明 AI 使用,但后续修改了政策,不再强制要求披露,转而更侧重于通过自动化和人工检查来确保内容的准确性和稳健性(但其政策依然禁止使用 AI“创建、更改或操纵”研究数据或结果)。Springer Nature 也指出,用于改善可读性、风格、语法或拼写错误的“AI 辅助文稿编辑”无需特别声明。IEEE 则建议在“致谢”部分披露 AI 生成的所有内容(文本、图表、图像、代码),但对于常见的编辑和语法增强用途,披露则为“建议”而非强制。

尽管政策框架日渐清晰,但大量未披露 AI 使用案例的曝光恰恰说明,现有政策的执行和同行评审流程在有效识别和管理 AI 生成内容方面仍面临巨大挑战。正如 Glynn 所指出的,Radiology Case Reports 上一篇论文中出现“I am an AI language model”这样直白到不能再直白的句子,竟然能一路绿灯通过作者、编辑、审稿人、排版人员等所有环节的审查,这本身就暴露了现有体系的脆弱性。

参考资料:

1.https://www.nature.com/articles/d41586-025-01180-2#ref-CR3

2.https://arxiv.org/abs/2411.15218

3.https://onlinelibrary.wiley.com/doi/10.1002/leap.1650

4.https://retractionwatch.com/2025/04/24/google-ai-engineer-withdraws-arxiv-preprint-tortured-phrases-genai/

排版:溪树

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI论文 学术诚信 未披露使用 撤稿 隐形修正
相关文章