IT之家 04月10日 12:48
麻省理工研究:AI 实际上并不具备价值观
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

麻省理工学院的研究反驳了此前关于人工智能会形成“价值体系”的观点。研究表明,当前AI技术并不具备连贯的价值观,其行为受幻觉和模仿能力影响,具有不可预测性。研究团队对Meta、谷歌、Mistral、OpenAI和Anthropic等公司的多个模型进行了测试,发现它们在偏好上的表现极不一致,容易受到输入提示的影响。研究者认为,这些模型更像是模仿者,而非拥有稳定信念的系统。

🤔 研究的核心在于质疑AI是否拥有连贯的价值观。此前有研究暗示AI会形成类似“价值体系”的东西,但麻省理工学院的研究对此提出反驳。

💡 研究团队考察了多个AI模型,包括Meta、谷歌、Mistral、OpenAI和Anthropic等公司的模型。他们研究了这些模型是否展现出明确的“观点”或“价值观”,以及这些观点是否可以被“引导”或修改。

⚠️ 研究结果表明,AI模型在偏好上的表现极其不一致。模型的反应会随着输入提示的措辞和框架而发生很大变化,这为模型的不一致性和不稳定性提供了有力证据。

🗣️ 研究合著者认为,这些模型本质上是模仿者,它们无法像人类一样内化和坚持价值观。他们认为,这些模型只是进行各种编造,发表一些无关紧要的言论。

IT之家 4 月 10 日消息,数月前的一项研究在网上引起热议,其暗示 AI 会逐渐形成类似于“价值体系”的东西,能够使 AI 在某些情况下会把自己的利益置于人类之上。然而,麻省理工学院的最新研究对此提出了反驳,得出结论认为,AI 并不具备任何连贯的价值观

据外媒 TechCrunch 今日报道,研究的合著者表示,要“对齐”AI 系统,即“确保其行为符合预期且稳定可靠”可能比原先想法更加困难。合著者强调,当前的 AI 技术存在幻觉,并且具备模仿能力,这使得其行为变得不可预测。

麻省理工学院的博士生、研究合著者斯蒂芬・卡斯珀在表示:“我们可以肯定,模型并不遵循许多关于稳定性、外推性和可操作性的假设。虽然指出一个模型在某些条件下会表现出某些偏好是合理的,但当我们基于狭窄的实验结果来做出广泛的推断时,问题才真正出现。”

卡斯珀和他的团队对 Meta、谷歌、Mistral、OpenAI 和 Anthropic 等公司的多个模型进行了研究,考察它们是否展现出明确的“观点”或“价值观”(比如个人主义和集体主义的对立)。他们还调查了这些观点是否可以被“引导”或修改,并分析了模型在不同场景下对这些观点的坚持程度。

IT之家从报道中获悉,合著者们表示,这些模型在偏好上的表现极其不一致。根据输入提示的措辞和框架,模型的反应可能会发生很大的变化。

卡斯珀认为,这为模型的“不一致性和不稳定性”提供了有力证据,并且可能表明这些模型本质上无法像人类一样内化和坚持价值观。

卡斯珀补充道:“对我来说,做这项研究的最大收获是,我现在意识到这些模型根本不是拥有稳定、一致信念和偏好的系统。相反,它们本质上只是模仿者,进行各种编造,发表一些无关紧要的言论。”

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

人工智能 AI价值观 麻省理工学院 AI模型
相关文章