互联网数据资讯网-199IT 05月20日 20:51
洛桑联邦理工学院:AI聊天机器人辩论说服力超人类64%
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

一项最新研究表明,AI聊天机器人在在线辩论中,尤其是在掌握对手个人信息的情况下,其说服能力超越了人类。研究人员通过让参与者与人类或GPT-4就社会议题展开辩论,发现当AI能根据对手的年龄、政治倾向等信息定制论点时,其说服力显著提升。这一发现揭示了AI在影响公众观点方面的潜力,但也引发了对潜在滥用的担忧,如诱导消费、操纵政治立场等。研究强调,在利用AI进行推广或减少社会极化等积极用途时,必须加强透明度与安全措施的讨论。

🤖AI聊天机器人若掌握对手个人信息,在线辩论说服力超人类。研究显示,GPT-4能根据对手特点调整辩论策略,例如对左倾者强调校服减少欺凌,对保守派则侧重纪律重要性。

⚠️AI说服力提升带来潜在风险,可能被用于诱导消费、操纵政治立场,甚至煽动犯罪。计算机伦理学家对此发出警告。

💡研究人员也指出LLM的潜在积极用途,如推广健康饮食或减少社会极化,但强调需加强透明度与安全措施的讨论。

研究发现,AI聊天机器人在在线辩论中的说服能力要强于人类,尤其是当它们能根据对手的个人信息定制论点时。这项由瑞士洛桑联邦理工学院领导的研究最近发表在《自然·人类行为》(Nature Human Behaviour)上,揭示了大语言模型(LLM)可能被用于政治竞选或定向广告等领域,以影响公众观点。

此前研究已表明,AI聊天机器人可以改变人们的想法,但其说服力与人类的对比尚不明确。为此,研究人员让900名美国参与者与人类或OpenAI的GPT-4进行10分钟辩论,议题包括校服制度、化石燃料禁令等社会问题。辩论前后,参与者需填写观点测试,以评估其立场变化。

结果显示,若双方均无对手背景信息,GPT-4的说服力与人类相当;但若提供年龄、政治倾向等基本信息,GPT-4在64%的辩论中表现更优。研究人员指出,GPT-4能根据对手特点调整策略,例如对左倾者强调校服减少欺凌,对保守派则侧重纪律重要性。

计算机伦理学家警告,这种能力可能被滥用,例如诱导消费、操纵政治立场甚至煽动犯罪。尽管存在担忧,研究人员也提出LLM的潜在积极用途,如推广健康饮食或减少社会极化,但强调需加强透明度与安全措施的讨论。

该研究凸显了AI在说服力上的优势与风险,为技术应用中的伦理问题敲响警钟。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI辩论 说服力 伦理风险
相关文章