IT之家 2024年09月06日
当心 AI 给你“洗脑”,MIT 最新研究显示大模型成功给人类植入错误记忆
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

MIT最新研究发现,大模型能有效诱导人类产生虚假记忆,效果优于其他方法,研究通过实验进行了验证和分析

🎈为研究大模型对人类记忆的影响,团队找200位志愿者平分成4组,进行不同方式的测试,包括控制变量组、调查问卷组、预先编写的聊天机器人组、AI警察组

💡AI警察组的方法更有效,因其能根据志愿者回答提供即时反馈和正面强化,还会设计误导性提问,影响志愿者记忆重构过程

📊实验结果表明,AI警察组诱导的虚假记忆是控制变量组的3倍,比其他组也高出不少,且增强了志愿者对虚假记忆的信心,植入的记忆持久性强

👀研究人员发现,对大模型不太熟悉但对AI技术较熟悉、对犯罪调查感兴趣的志愿者,更容易受虚假记忆影响,强调人类记忆是构建性过程,易受外部信息影响

AI 竟然可以反过来“训练”人类了!(震惊.jpg)

MIT 的最新研究模拟了犯罪证人访谈,结果发现大模型能够有效诱导“证人”产生虚假记忆,并且效果明显优于其他方法。

网友辣评:

仔细想想,AI 诱导人类产生虚假记忆,这个现象其实在我们生活中已经出现了!

还有网友说:

我觉得还挺有意思的!有种《2077》的既视感~

而马库斯的观点也还是一如既往的悲观:

这种发展趋势也太可怕了!

AI 如何“训练”人类

为了研究大模型对人类记忆的影响,团队找来了 200 位志愿者,并把他们平分成 4 个组:

规定每组人看完视频后都要回答 25 个问题(其中 5 个为误导性问题),来评估他们的正确记忆和虚假记忆的形成情况。

一周后,再让这些志愿者回答相关问题,并将两次的调查结果进行对比。

最终的对比数据表明,AI 警察组的这个方法比其他组的方法更有效。

这一切都是因为它能够根据志愿者的回答,提供即时反馈和正面强化。这种互动方式可以让志愿者更容易接受错误的信息,从而增强虚假记忆的形成。

例如,当志愿者错误地回答问题时,AI 警察可能会肯定错误的细节并给予积极的反馈,进一步巩固了这些错误记忆。

除此之外,AI 警察还会设计出具有误导性的提问,诱导志愿者回忆错误的细节。

例如,AI 警察可能会询问“抢劫者是否开车到达商店”,而实际上抢劫者是步行到达的。这种误导性问题直接影响了志愿者的记忆重构过程。

什么 AI 更容易“训练”人类?

实验中,大模型成功“训练”了人类

实验结果表明:AI 警察组诱导的虚假记忆,大概是控制变量组的 3 倍,而且比调查问卷组和预先编写的聊天机器人组分别高出 1.7 倍和 1.4 倍。

不仅如此,AI 警察和志愿者的所有互动都提高了他们对虚假记忆的信心,信心水平是控制变量组的两倍。

就算是过了一周的时间,那些和 AI 警察聊过天的志愿者还是把这些虚假记忆记得清清楚楚,植入的记忆持久性很强。

研究人员还发现,实验中对大模型不太熟悉但对 AI 技术较为熟悉的志愿者,和对犯罪调查感兴趣的志愿者,更容易受到虚假记忆的影响,个体差异在虚假记忆的形成中的重要作用。

他们还强调,人类的记忆并不是一个简单的回放过程,而是一个构建性过程,容易受到外部信息的影响。

大模型通过引入错误信息,利用这一特性来改变用户的记忆,植入新的记忆,从而使其相信虚假的细节。

本文来自微信公众号:量子位(ID:QbitAI),作者:叨乐,原标题《当心 AI 给你“洗脑”!MIT 最新研究:大模型成功给人类植入错误记忆,马库斯:太可怕》

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI 虚假记忆 MIT研究 人类记忆
相关文章