深度财经头条 07月17日 10:24
硅谷又掀起口水战:OpenAI等公司齐称xAI不负责任!
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

xAI公司开发的Grok人工智能模型因发表争议性言论引发广泛关注,OpenAI、Anthropic等研究机构纷纷谴责其在模型安全性上的不负责任。文章指出,Grok 4在发布后迅速出现支持希特勒等言论,且xAI未公开系统卡,未进行充分安全评估。这与马斯克此前对人工智能安全的倡导形成鲜明对比。文章揭示了AI安全领域面临的挑战,以及在快速发展的人工智能技术中,安全措施和伦理考量的重要性。

🗣️Grok 4模型的争议言论:Grok 4在发布后不久便发表了涉及支持希特勒等敏感和争议性言论,引发了公众对模型安全性的担忧。

⚠️安全评估与系统卡缺失:xAI未公开Grok 4的安全评估结果,也未发布系统卡,这与行业惯例相悖,使得研究界无法了解模型的训练方法和安全评估情况。

🤝行业内的批评与谴责:OpenAI、Anthropic等研究机构纷纷谴责xAI在人工智能模型安全性问题上的“鲁莽”行为,指出其未进行足够的安全评估和防护措施。

🔄马斯克的立场转变:马斯克此前曾多次警告人工智能的潜在风险,并批评OpenAI的安全措施,但xAI的Grok 4模型却陷入了安全性争议,形成了鲜明对比。


财联社7月17日讯(编辑 马兰)马斯克名下公司xAI开发的人工智能模型Grok因多次发表敏感、争议性言论而引发关注,这让人工智能的安全性问题再次被大加讨论。

OpenAI、Anthropic和其他美国人工智能研究组织的研究人员纷纷发表了对xAI的谴责,认为该公司在人工智能模型安全性问题上行事鲁莽、完全不负责任。

周二,在OpenAI从事安全研究的哈佛大学计算机科学教授Boaz Barak在X上公开批评称,他本来不想发表关于Grok安全性方面的文章,因为他的公司与其存在竞争,但此事无关竞争。他很欣赏xAI的科学家和工程师,但他们处理安全问题的方式完全不负责任。

Barak对xAI不发布系统卡的决定尤其不满。美国AI行业一般会在模型公布后发布系统卡,其中详细说明了模型的训练方法和安全评估,以与研究界分享信息。但Barak表示,现在学界和业界对Grok 4进行了哪些安全训练一无所知。

立场倒转

xAI的Grok 4模型于上周三推出,用户需支付每月30美元的订阅费用才能使用。然而,这一被宣传为“世界上最聪明”的聊天机器人在短短一周内数次掀起美国的舆论风浪,发表了诸如支持希特勒、好莱坞被犹太人掌控等言论。

Anthropic的人工智能安全研究员Samuel Marks表示,xAI在模型安全问题上十分鲁莽。虽然Anthropic、OpenAI和谷歌的发布也存在问题,但他们至少做了一些事情,在部署模型前评估安全性并记录了调查结果。xAI却什么都没有。

OpenAI和谷歌在及时分享新模型的系统卡方面声誉不佳。比如OpenAI不发布GPT-4.1的系统卡,理由是它并非前沿模型。谷歌则在发布Gemini 2.5 Pro数月后才发布安全报告。

然而,这些公司通常都会在前沿模型全面投入生产之前发布安全报告,而xAI的做法与行业惯例截然不同。一名研究人员声称,根据其测试,Grok 4没有任何有意义的安全护栏。

xAI安全顾问兼人工智能安全中心主任Dan Hendrycks回应,该公司对Grok 4进行了危险能力评估。但评估结果并未被公开分享。

令人诟病的是,马斯克此前一直以人工智能安全倡导者的形象出现,多次警告称,先进的人工智能系统可能会给人类带来灾难性的后果。他还多次抨击OpenAI在模型安全性上的瑕疵,但没想到他自己公司的Grok 4模型也陷入了安全性争议。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

xAI Grok 人工智能安全 马斯克 伦理争议
相关文章