Cnbeta 6小时前
维基百科编辑对人工智能生成的垃圾文章采取“快速删除”政策
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

面对人工智能生成文章的激增,维基百科近期出台了一项新政策,赋予管理员快速删除符合特定标准AI生成文章的权限。这项政策旨在应对AI带来的混乱,并为其他平台提供了应对此类挑战的范例。维基百科的志愿者社区通过讨论和共识来维护平台内容,而此次的新规为处理明显违反政策的AI内容提供了“快速删除”通道,避免了冗长的讨论期。新的快速删除标准主要针对包含AI模型回应用户提示的语言,或引用明显错误的AI生成文章,以确保信息的准确性和平台的可靠性。

📝 维基百科为应对AI生成文章的涌入,制定了新政策,赋予管理员快速删除符合特定标准AI文章的权限,以此应对AI可能带来的混乱,并为其他平台树立了应对范例。

⏱️ 传统的维基百科条目删除流程通常需要一周的讨论期以达成共识,但新政策引入了“快速删除”机制,允许管理员在特定条件下,无需漫长讨论即可移除明显违反政策的AI生成内容,例如包含AI模型回应用户提示的语言或引用明显错误的条目。

⚠️ 新政策的快速删除标准包括文章中出现“旨在与用户沟通”的语言,如“这是你关于……的维基百科文章”等AI模型回应式表述,以及引用明显错误的情况,如甲虫物种论文被错误引用至计算机科学文章,这表明AI内容可能未经用户仔细审阅,且存在事实性错误。

💡 维基百科编辑Ilyas Lebleu指出,快速删除仅是“权宜之计”,AI问题将持续存在,并强调AI未来可能成为维基百科的积极力量,但当前需优先解决现有问题。同时,新政策的制定也标志着社区在处理AI生成内容上的共识形成,明确了未经审核的大语言模型内容与维基百科精神不相容。

⚖️ 维基百科的修订政策虽然并非完美,但相较于之前的尝试,提出了更具体的标准,并正式就大语言模型生成的文章发表了声明,反映了社区在应对AI内容方面的进步,也体现了维基百科“没有固定规则,可随技术发展而审视”的灵活性。

维基百科编辑们刚刚出台了一项新政策,以帮助他们应对大量涌入在线百科全书的人工智能生成文章。这项新政策赋予管理员快速删除符合特定标准的人工智能生成文章的权限。这不仅对维基百科至关重要,也为该平台提供了一个重要的范例,展现了如何应对日益严重的人工智能带来的混乱问题。

维基百科由一个由志愿者贡献者和编辑组成的全球协作社区维护,它之所以能够成为可靠的信息来源,部分原因在于这个社区花费大量时间讨论、审议和争论平台上发生的一切,无论是个别条目的修改,还是管理这些修改的政策。删除整篇维基百科条目是正常现象,但主要的删除流程通常需要一周的讨论期,在此期间,维基百科用户会努力就是否删除该条目达成共识。 

然而,为了处理明显违反维基百科政策的常见问题,维基百科还设有“快速删除”流程,即一个人标记一篇文章,管理员检查其是否满足某些条件,然后在没有讨论期的情况下删除这篇文章。 

例如,完全由幻觉带来的胡言乱语、毫无意义的文本或维基百科所称的“无稽之谈”组成的条目可以被标记为快速删除。同样,那些仅仅是广告、没有百科全书价值的条目也是如此。如果有人因为“很可能不值得注意”而将某篇文章标记为删除,那么这是一种更主观的评估,需要进行充分的讨论。 

目前,维基百科编辑标记为AI生成的文章大多属于后一类,因为编辑者无法完全确定它们是否由AI生成。Ilyas Lebleu是维基百科AI清理项目的创始成员之一,也是最近通过的关于AI生成文章和快速删除政策中贡献了一些批评性语言的编辑。他告诉我,这就是为什么之前关于维基百科AI生成文章监管提案举步维艰的原因。 

“虽然很容易就能看出某些内容是人工智能生成的(例如措辞选择、破折号、带粗体标题的项目符号列表等等),但这些迹象通常并不那么明显,我们不想仅仅因为听起来像人工智能就误删内容,”勒布鲁在一封电子邮件中告诉我。“总的来说,易于生成的人工智能内容的兴起被描述为对维基百科的‘生存威胁’:由于我们的流程面向(通常很长的)讨论和共识构建,如果我们没有办法快速删除这些虚假内容,那么快速生成大量虚假内容的能力就会成问题。当然,人工智能内容并非独一无二,人类也完全有能力编写不良内容,但速度肯定不一样。我们的工具是为完全不同的规模而设计的。”

维基百科人提出的解决方案是允许快速删除明显由人工智能生成的文章,这些文章大致满足两个条件。首先,文章中包含“旨在与用户沟通”的内容。这指的是文章中明显是大语言模型(LLM)在回应用户提示的语言,例如“这是你关于……的维基百科文章”、“截至我上次训练更新……”以及“作为一个大型语言模型”。这清楚地表明该文章是由大语言模型生成的,我们之前也曾使用这种方法来识别人工智能生成的社交媒体帖子和科学论文。 

Lebleu 告诉我,他们已经见过这些情况“很多次”了,他说,更重要的是,它们表明用户甚至没有阅读他们提交的文章。 

他们说:“如果用户没有检查这些基本内容,我们可以放心地认为他们没有检查他们复制粘贴的任何内容,而且它就像白噪声一样无用。”

另一个导致AI生成文章被快速删除的条件是,如果其引用明显错误,这是大语言模型(LLM)容易犯的另一种错误。这可能包括包含指向不存在且无法解析的书籍、文章或科学论文的外部链接,或者指向完全不相关内容的链接。维基百科的新政策举了一个例子:“一篇关于甲虫物种的论文被引用到一篇计算机科学文章中。”

Lebleu 表示,快速删除只是“权宜之计”,可以解决最明显的问题,而随着越来越多的 AI 生成内容不符合快速删除的新条件,AI 问题将持续存在。他们还指出,AI 可以成为一个有用的工具,在未来为维基百科带来积极的力量。 

“然而,目前的情况截然不同,对未来几年技术发展方向的猜测很容易分散我们解决当前问题的注意力,”他们说道。“维基百科的一个关键支柱是,我们没有固定的规则,我们今天做出的任何决定,几年后随着技术的发展,都可能被重新审视。”

勒布鲁表示,新政策最终会让维基百科的处境比以前更好,但并不完美。

好消息(除了快速删除之外)是,我们已经正式就大语言模型生成的文章发表了声明。这在社区中一直是一个争议点:虽然绝大多数人都反对人工智能内容,但究竟如何处理它一直是争论的焦点,早期制定广泛政策的尝试也失败了。在此,基于之前在人工智能图像、草稿和讨论评论方面取得的进展,我们研讨制定了一个更为具体的标准,但该标准明确指出,未经审核的大语言模型内容在精神上与维基百科不相容。

相关文章:

编辑抗议后 维基百科暂停AI摘要试点

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

维基百科 AI生成内容 内容治理 快速删除 大语言模型
相关文章