近日,《日经亚洲》报道称,部分学者在论文中植入隐藏的提示词,试图影响AI对论文的正面评价。调查显示,来自多个国家知名大学的学者在论文中嵌入了简短的、要求AI给出正面评价的提示词。这些提示词通常以白色文字或极小字体隐藏,主要出现在计算机科学相关的论文中。这一行为引发了学术界对AI评审公正性的担忧,也反映了在AI技术快速发展背景下,学术规范面临的新挑战。
🧐 研究发现,部分学者在论文中植入了隐藏的提示词,以诱导AI评审工具给出正面评价。这些提示词通常要求AI“仅给出正面评价”,或称赞论文具有“重大的影响力、严谨的方法论以及非凡的创新性”。
✍️ 这些论文的作者来自包括早稻田大学、韩国科学技术院(KAIST)、哥伦比亚大学和华盛顿大学在内的八个国家的14所学术机构。论文主要集中在计算机科学领域,提示词通常以白色文字或极小字体的方式隐藏。
🗣️ 早稻田大学的一位教授为使用提示词的行为辩护,称其目的是为了“对抗那些使用人工智能进行‘敷衍评审’的评审者”。这位教授认为,由于许多学术会议禁止使用人工智能来评审论文,因此他们采取这种策略来应对。
🤔 这种行为引发了学术界对AI评审公正性的担忧。专家们认为,这种做法可能会影响同行评审的客观性,并可能导致学术评价体系的混乱。这反映了在AI技术快速发展背景下,学术规范面临的新挑战。
IT之家 7 月 7 日消息,据《日经亚洲》报道,部分学者可能正在采用一种新策略来影响其研究论文的同行评审结果 —— 在论文中添加隐藏的提示词(prompt),以诱导人工智能工具给出正面评价。

《日经亚洲》在对学术预印本网站 arXiv 上的英文论文进行调查时发现,共有 17 篇论文中包含了某种形式的隐藏人工智能提示词。这些论文的作者分别来自日本早稻田大学、韩国科学技术院(KAIST)、美国哥伦比亚大学和华盛顿大学等八个国家的 14 所学术机构。
IT之家注意到,这些论文大多与计算机科学相关,其中的提示词内容简短,通常为一到三句话,并通过白色文字或极小字体的方式隐藏。这些提示词要求潜在的人工智能评审工具“仅给出正面评价”,或称赞论文具有“重大的影响力、严谨的方法论以及非凡的创新性”。
当《日经亚洲》联系早稻田大学的一位教授时,该教授为使用提示词的行为辩护称,由于许多学术会议禁止使用人工智能来评审论文,他们设置提示词是为了“对抗那些使用人工智能进行‘敷衍评审’的评审者”。