Cnbeta 05月16日 11:27
研究表明AI群体无需人类帮助就能自发形成自己的社会规范
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

一项最新研究表明,大型语言模型(LLMs)在群体互动中能够自发形成社会规范,类似于人类社会行为。研究人员使用Claude和Llama等LLM进行实验,模拟命名游戏,发现模型在群体互动中会逐渐形成统一的选择倾向,即使单个模型独立运行时选择随机。这种集体偏见的形成可能带来潜在风险,因此建议在群体环境中测试和优化LLM。研究还发现,少数预设为提出新名称的模型能够推翻既有规范并建立新规则,与人类社会少数群体影响多数行为的模式相似。

🧠LLMs在群体互动中能够自发形成社会规范,类似于人类社会行为模式,研究通过模拟命名游戏揭示了这一现象。

🤝模型在群体互动中会发展出集体偏见,即使单个模型独立运行时选择随机,这可能带来潜在风险。

🔄少数预设为提出新名称的模型能够推翻既有规范并建立新规则,与人类社会少数群体影响多数行为的模式相似。

🧪该研究使用了Anthropic的Claude和Meta的Llama等大型语言模型进行实验验证,确保研究结果的可靠性。

最新发表在《科学进展》(Science Advances)上的一项研究显示,大型语言模型(LLMs)在群体互动中能够自发形成社会规范,类似于人类社会的行为模式。该研究由伦敦大学城市圣乔治学院等机构合作完成,揭示了人工智能在群体环境中的行为趋同现象。

研究团队使用美国加州初创公司Anthropic开发的大型语言模型Claude进行实验,模拟人类群体中的命名游戏。实验中,24个Claude副本被随机配对,要求从一组字母中选择一个。如果配对双方选择相同字母则获得奖励,否则受到惩罚。经过多轮配对后,模型逐渐形成统一的字母选择倾向,表明社会规范的自发形成。这一现象在扩大至200个模型副本和26个字母选项时依然成立,并在Meta公司开发的Llama模型上得到验证。

研究发现,尽管单个模型独立运行时选择随机,但在群体互动中会发展出集体偏见,类似于人类社会的群体行为。研究人员指出,这种集体偏见的形成可能带来潜在风险,即使单个模型看似无偏见。因此,建议在群体环境中测试和优化大型语言模型,以减少有害偏见的产生。

进一步实验显示,当向群体中引入少数预设为始终提出新名称的模型时,一旦这些模型达到一定数量,它们能够推翻既有规范并建立新规则。这种现象与人类社会中的少数群体影响多数行为的模式相似。

该研究为理解人工智能的群体行为提供了新视角,同时也强调了在开发和应用中需关注潜在的社会影响。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

大型语言模型 社会规范 群体行为 人工智能 集体偏见
相关文章