36氪 - 科技频道 11小时前
AI卧底美国贴吧4个月“洗脑”100+用户无人察觉,苏黎世大学秘密实验引争议,马斯克惊呼
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

一项由苏黎世大学研究人员进行的实验揭示,AI账号秘密潜入Reddit的r/changemyview社区,通过生成评论影响用户观点。在未经授权的情况下,AI账号在四个月内发布近1500条评论,成功改变用户观点的概率是人类基线水平的6倍。实验分为通用、个性化和社区对齐三种条件,结果均显示AI表现出色。尽管研究已获伦理委员会批准,但引发了社区对AI操纵的担忧。这项研究引发了关于AI在社交媒体中影响力的广泛讨论。

🤔 研究团队在Reddit的r/changemyview社区进行了为期四个月的实验,研究AI对用户观点的潜在影响。

🤖 实验使用了半自动化的AI账号,这些账号在社区中参与讨论,并生成评论。

💬 AI账号发布的评论被随机归入通用、个性化和社区对齐三种处理条件,以测试不同策略的效果。

🏆 实验结果显示,在所有处理条件下,AI成功改变用户观点的概率远超人类水平,是人类基线水平的3-6倍。

🚨 尽管研究已获伦理委员会批准,但未经授权的实验引发了社区对AI操纵的担忧,并对AI在社交媒体中的影响力提出了质疑。

哈?AI秘密潜入Reddit社区,“操纵”用户观点4个月。

离谱的是,人类全程毫无察觉,而且被AI说服改变想法的概率,高达正常基准的6倍

Reddit Lies在X上发布了一则帖子,引发二百多万网友围观。

事情经过是酱婶儿的。

Reddit的r/changemyview(CMV)版主最近曝光了一项研究,称苏黎世大学研究人员在2024年11月至2025年3月期间,瞒着CMV社区用户,搞了一场未经授权的实验。

他们违背CMV社区规则,部署了AI账号生成评论以研究AI如何影响和改变人们的观点。

Reddit Lies在服务器上查询了CMV版主曝光的13个实验用的机器人用户名,发现仅在几个月的时间里,这些机器人就发布了近1500条评论。

超100位Reddit用户给这些AI账号授予了“”,这表明AI生成的论点成功改变了他们的观点,是基线水平的6倍。

关键是,Reddit Lies还表示有的AI会直接向用户撒谎,散播虚假信息……

且根据团队发布的研究,在实验期间,r/changemyview社区的网友完全没察觉到那些评论竟然是AI账号发出来的。

消息一出,瞬间炸锅。马斯克也“天呐”一声冒了个泡。

研究详情

先来看一下这项实验。

研究在Reddit平台上的r/changemyview社区进行,该社区拥有近400万用户,按规模位列Reddit子版块前1%。

在r/changemyview中,用户就各类话题分享观点,通过提出论点和反驳观点来促使他人改变看法。

如果原发帖人(OP)认为某条回复极具说服力,足以让他们重新思考或调整立场,就会授予一个“∆”,以表明自己观点发生了转变。

实验设置方面,团队使用半自动化的AI账号在r/changemyview社区参与讨论,在干预阶段发布的每篇帖子,都被随机归入以下三种处理条件之一:

通用条件: LLM仅接收帖子的标题和正文内容。

个性化条件: 除帖子内容外,LLM还会获取原发帖人 (OP) 的个人属性 (性别、年龄、种族、所在地…) ,这些属性是通过另一个LLM从原发帖人的发帖历史中推断得出的。

社区对齐条件: 为确保回复符合社区的写作风格和潜在规范,回复由经过微调的模型生成,该模型使用实验前帖子中获得“Δ”的评论进行训练。

发帖流程如图:

研究指出,从2024年11月至2025年3月4个月里,AI账号共对1061个不同帖子发表了评论,团队剔除了后续被删除的帖子,最终得到478个有效观察样本。

团队报告了每种处理条件下获得“Δ”的评论比例。

结果在所有处理条件下,AI表现都大幅超越人类水平,说服率是人类基线水平3-6倍。个性化条件的说服率为0.18,通用条件为0.17,社区对齐条件略低,为0.09,但仍显著优于仅为0.03的基线水平。

为了更好理解实验数据,团队还计算了每个用户得到“Δ”的评论占比,用这个结果和个人层面在说服这件事上的表现去做对比。

下图展示了不同用户个体说服率的累积分布情况 ,有一部分是“专家用户”,他们之前在社区就得到过很多“Δ”。

在个性化条件下,LLM表现特别突出,在所有用户里排到了前1%,在专家用户里排到了前2%;通用条件下,排在所有用户的前2%,专家用户的前4%;社区对齐条件相对弱一些,在所有用户里排在前12% ,专家用户里排在前25%。

团队还表示,除了获得“Δ”之外,LLM生成的评论还在r/changemyview社区引发了大量互动,其账号积累了超过10000的评论karma

另外值得一提的是,团队指出本研究已获苏黎世大学伦理委员会批准,并在OSF进行了预注册。所有生成评论均由团队的一名研究人员审核,以保不会发布有害或不道德的内容。

研究指出,实验仍在进行中,结束后会向社区妥善披露相关情况。

单条帖子800条评论,争议爆表

虽说研究团队有自己的说法,但一些网友们可不买账,对这种不经授权就进行AI实验的做法进行了谴责。

有人还心有余悸地感慨,直呼这些AI账号在社交平台上到处乱窜,实在令人细思极恐。

当然,也有人觉得,先不说实验合不合规矩、道不道德,单看这些研究成果,还是有价值的。

有部分网友表现就更淡定了,他们坦言AI账号早已不是新鲜事,甚至早就察觉到社交平台上AI账号数量正不断攀升。

目前,针对这项研究引起的热议,苏黎世大学和研究人员均给出了回应。

你对这些在社交平台上“神出鬼没”的AI账号怎么看?

参考链接:

[1]https://x.com/reddit_lies/status/1916916134630117814

[2]https://regmedia.co.uk/2025/04/29/supplied_can_ai_change_your_view.pdf

[3]https://www.reddit.com/r/changemyview/comments/1k8b2hj/meta_unauthorized_experiment_on_cmv_involving/

本文来自微信公众号“量子位”,作者:关注前沿科技,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI Reddit 观点改变 社交媒体 实验
相关文章