虎嗅 07月09日 14:44
中国论文工厂,已经用AI批量生产垃圾论文了?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

一篇发表在《科学报告》上的研究揭示了学术界令人担忧的现象:大量垃圾论文正在涌入期刊,尤其集中在中国。这些论文往往基于标准化数据集和回归模型,研究单一变量与疾病的关系,缺乏实际价值。研究发现,仅2024年1月至10月,就有190篇此类论文发表,其中超过92%的第一作者来自中国单位。这种现象与NHANES等公共数据库的开放性以及AI辅助工具的出现密切相关,论文工厂通过自动化流程快速生产论文,对学术诚信造成严重威胁。

🔍 垃圾论文激增:研究发现,大量基于NHANES数据库的“单因子关联研究”论文数量激增,尤其集中在中国学者。这些论文通常研究一个变量对一种疾病的影响,缺乏创新性。

📝 论文写作套路化:这些论文采用高度重复的写作脚本,使用logistic回归模型,研究单一健康变量与疾病或生理状态之间的统计关联,结论多为“显著相关”。

📊 数据操纵与造假嫌疑:部分论文存在数据选择性使用的问题,研究者可能仅选取特定年份的数据进行分析,以获得更显著的结果。

🤖 AI论文流水线:AI技术辅助下,论文工厂利用公共数据库、自动化分析脚本和公式化研究设计,以指数级速度批量生产雷同论文。

💼 论文服务平台推波助澜:中国社交媒体上存在大量提供论文代写服务的平台,它们协助下载数据、完成分析、撰写报告,甚至承诺“挖掘数据直至发表”。

Scientific Reports的副主编、英国萨里大学数据科学家马特·斯皮克注意到,一批垃圾论文正以每天一篇甚至两篇的速度,在迅速涌入他工作的期刊。

它们选题各异,套路却惊人地一致。有的研究血清维生素D与抑郁症的关系,有的分析碘摄入与糖尿病,有的考察炎症指数与睡眠质量,总之就是考察一个变量对一种疾病的影响。只需一份标准化的数据集、一段回归模型脚本,再得出一个统计显著的结果,这类论文就能迅速成文。换个变量,又是新的一篇。

这种没有信息含量的垃圾论文数量在迅速膨胀。2024年,仅1月至10月,全球就发表了190篇这类基于美国 NHANES 健康数据库的“单因子关联研究”,几乎是2014至2021年间年均发表数量的五十倍。

国产垃圾论文攻陷国外期刊

更引人注意的是,垃圾论文数量的激增几乎完全集中在中国。2021至2024年间,全球共发表了316篇此类论文,其中有292篇的第一作者来自中国单位,占比超过92%。而在2014至2020年的25篇中,这一数字仅为2篇[1]

这组数据来自于斯皮克和他合作者今年发布的一项研究。为了系统性地研究这一现象,斯派克和他的合作者在PubMed和Scopus等学术数据库中,使用精确的关键词组合进行检索,筛选出过去十年间所有使用NHANES数据、且研究设计为单因素关联的论文。经过筛选,他们最终确定了341篇符合条件的论文作为分析对象。

这些论文大多采用相同的方法框架:使用 logistic 回归模型,研究一个健康变量与一种疾病或生理状态之间的统计关联,最多控制三五个协变量,结论集中在“显著相关”这一层面。研究的问题不同,结构几乎不变。

在对这三百多篇论文进行分析后,研究团队发现,它们普遍遵循一套高度重复的写作脚本。研究者从数据库中选取一个预测变量,比如某种维生素水平,再选择一个健康结果,比如抑郁症,通过标准化的统计流程将两者建立关联,最终得出一个简单的结论,A 与 B 相关。在最极端的情况下,研究者甚至只需颠倒自变量和因变量的位置,就能生成另一篇论文,无需任何生理学依据或理论假设,便可无限扩展变量与结局的组合方式。

为了进一步说明这类研究存在的问题,研究团队使用了网络分析方法,把所有论文中提到的预测变量和疾病之间的配对关系画成图表。结果显示,像抑郁症这样的复杂疾病,被几十个毫无关联的变量分别单独研究过一次。图中呈现出一种“一个变量对应一个疾病”的稀疏结构,揭示出这类研究往往忽视疾病背后的多重因素,只是简单地找出某种单一因素与某个结果之间的联系。

团队以抑郁症为例,检验这些论文是否可靠。他们统计了所有声称与抑郁症显著相关的研究,一共28篇,并使用一种叫“错误发现率”的统计方法,对这些结果重新进行了校正。FDR 用来处理多个变量同时检验时容易出现的假阳性问题。结果发现,这28项中有15项在校正后不再显著,说明很多看起来有效的结果,其实可能只是偶然波动造成的。

研究人员进一步发现,不少论文在数据使用上存在操纵的嫌疑。NHANES 是一项跨年滚动调查,覆盖数十年的连续数据,供研究者完整调用。但在大部分论文中,作者却在没有提供任何解释的情况下,仅选取了其中一小段年份区间进行分析。这种精心挑选数据的做法,很难不令人怀疑其动机是为了筛选出p值最低、结果最漂亮的组合来发表。

将所有线索串联起来,一条AI论文流水线已经显示得非常清晰了。一个对AI开放的数据库作为原料,辅以自动化的分析脚本,再套用高度公式化的研究设计,最终得以在短期内以指数级速度产出大量雷同的论文。这套流程完美地契合了AI辅助的工作模式,正如报告作者所言,这种生产力的提升,对“旨在通过提供低质量或伪造稿件来牟利的论文工厂尤其具有吸引力” 。

论文工厂用上AI了

这一切的起点,是庞大的公共健康数据库NHANES。这是由美国官方主导的一项长期项目,旨在评估美国成人和儿童的健康与营养状况。该调查每两年进行一次,招募约1万名参与者,通过结合访谈、体格检查和实验室检测,收集了涵盖疾病、风险因素、营养指标等超过700个变量的综合数据。

造成这一局面的部分原因,在于NHANES 本身高度结构化的数据形式。它的数据可以通过API直接导入Python或R语言环境,一系列标准库支持自动搜索、清洗、建模与输出。过去需要团队手动完成的数据整理和图表绘制,如今可在更短时间内借助脚本工具实现。

更关键的是,NHANES是一个AI就绪的数据集。 这意味着,研究者可以通过应用程序编程接口轻松地、自动化地提取和分析数据。 这种设计本意是为提高科研效率,但它也为“数据挖掘”和批量生产论文打开了方便之门。

斯皮克团队认为,他们的研究结果很可能严重低估了问题的规模。他们的检索范围局限于符合利用NHANES的单因子研究。但更宽泛的搜索显示,仅在一年之间,使用 NHANES 数据发表的论文数量就从2023年的4926篇增长到了2024年的7876篇。

来自美国西北大学的研究者瑞兹·理查森一直关注论文工厂的动向。他在一次快速检索中,就发现了5篇未被斯皮克团队纳入的 NHANES 论文,这些文章与某个可疑论文工厂有关联。它们的写作结构与斯皮克所识别出的论文非常相似,同样是围绕 NHANES 数据中的单一变量与某种疾病的简单相关性展开,例如电子烟使用与肺部疾病之间的关联[2]

以“临床公共数据库挖掘”为关键词,在中国社交媒体平台上不难搜到大量提供服务的公众号。其中除了本文提到的 NHANES 数据库,GBD等数据库也频繁出现在这些平台的推文和案例中,成为热门的数据来源。

这类公众号大多提供多种模式的服务,例如:根据研究主题协助下载公开数据,完成统计分析,撰写数据分析报告,或在已有数据和主题的基础上提供论文思路和写作指导。一些平台还进一步打出“全流程陪跑”的口号,从选题、分析到英文润色,覆盖论文写作的各个阶段。

在一些平台的广告中,造假的暗示已非常露骨。例如有平台写道:“因公共数据库的开放性,我们提供的统计服务可不断更换研究主题,挖掘数据,直至分析出发表级的统计分析结果,并可提供中英文的方法和结果。”换句话说,就是以发表为目标,围绕数据库中的变量反复组合、拆解、筛选,直到跑出一组足够显著的结果。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

学术腐败 垃圾论文 NHANES 论文工厂 AI
相关文章