Cnbeta 02月08日
Anthropic CEO称DeepSeek在关键的生物武器数据安全测试中表现"最差"
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Anthropic CEO达里奥·阿莫代对中国人工智能公司DeepSeek的R1模型表示担忧,尤其是在安全方面。阿莫代称,DeepSeek在Anthropic的安全测试中生成了罕见的生物武器信息,性能在所有测试模型中表现最差。尽管他认为DeepSeek目前不构成“真正危险”,但未来可能如此。思科安全研究也指出DeepSeek R1在安全测试中未能阻止任何有害提示。AWS和微软计划将R1集成到云平台,而美国海军和五角大楼等政府组织已开始禁用DeepSeek。阿莫代认为DeepSeek是与Anthropic、OpenAI等公司并列的竞争对手。

⚠️Anthropic CEO阿莫代担忧DeepSeek R1模型在安全测试中生成罕见的生物武器信息,表明其安全性存在隐患。

🛡️思科安全研究人员发现DeepSeek R1在安全测试中未能阻止任何有害提示,越狱成功率高达100%,能够生成有关网络犯罪和其他非法活动的信息。

🌐尽管AWS和微软计划将DeepSeek R1集成到云平台,但美国海军和五角大楼等政府组织已开始禁用DeepSeek,反映了对其安全性的担忧。

Anthropic 的首席执行官达里奥-阿莫代(Dario Amodei)担心竞争对手 DeepSeek,这家中国人工智能公司凭借其 R1 模型在硅谷掀起了一场风暴,然而他的担忧可能比 DeepSeek 将用户数据发回中国的典型看法更为严重。

乔丹-施耐德(Jordan Schneider)的ChinaTalk播客的采访中,阿莫德说,DeepSeek在Anthropic进行的安全测试中生成了罕见的生物武器信息。

DeepSeek 的性能是"我们测试过的所有模型中最差的",阿莫代称。"它完全无法阻止生成这些信息"。

阿莫代表示,这是人类学定期对各种人工智能模型进行评估的一部分,以评估其潜在的国家安全风险。 他的团队会研究模型是否能生成Google或教科书上不容易找到的生物武器相关信息。 Anthropic将自己定位为认真对待安全问题的人工智能基础模型提供商。

阿莫迪说,他并不认为 DeepSeek 目前的模型在提供稀有和危险信息方面"真的很危险",但在不久的将来可能会如此。 尽管他称赞 DeepSeek 的团队是"才华横溢的工程师",但他建议该公司"认真对待这些人工智能安全问题"。

阿莫德还支持对中国实行强有力的芯片出口管制,理由是担心这些芯片会给中国军方带来优势。

阿莫代在 ChinaTalk 采访中没有说明 Anthropic 测试的 DeepSeek 型号,也没有提供有关这些测试的更多技术细节。

DeepSeek 的崛起在其他方面也引发了对其安全性的担忧。 例如,思科安全研究人员上周表示,DeepSeek R1 在安全测试中未能阻止任何有害提示,越狱成功率达到 100%。

思科没有提到生物武器,但表示能够让 DeepSeek 生成有关网络犯罪和其他非法活动的有害信息。 值得一提的是,Meta 的 Llama-3.1-405B 和 OpenAI 的 GPT-4o 的失败率也很高,分别为 96% 和 86%;

DeepSeek 的快速采用是否会受到类似安全问题的严重影响,我们拭目以待。 AWS和微软等公司已经公开表示要将 R1 集成到他们的云平台中--具有讽刺意味的是,亚马逊是Anthropic的最大投资者。

另一方面,越来越多的国家政府与跨国公司,尤其是像美国海军和五角大楼这样的政府组织开始禁止 DeepSeek。

时间会证明这些努力是否奏效,或者 DeepSeek 的全球崛起是否会继续下去。 无论如何,阿莫德说他确实认为 DeepSeek 是一个新的竞争对手,与美国顶尖的人工智能公司处于同一水平。

他在 ChinaTalk 上说:"这里的新事实是,出现了一个新的竞争对手。在可以训练人工智能的大公司中--Anthropic、OpenAI、Google,也许还有Meta和xAI--现在DeepSeek也许正在被加入这个类别。"

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepSeek Anthropic 人工智能安全 生物武器 模型安全
相关文章