Cnbeta 02月04日
Meta将停止开发被认为风险过高的人工智能系统
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Meta公司发布“前沿人工智能框架”,指出部分高能力AI系统因风险过高可能不予公开。该框架将AI系统分为“高风险”和“临界风险”两类,后者可能导致灾难性后果。Meta认为现有评估科学不足以量化系统风险,将根据内部和外部意见进行风险分类。高风险系统将限制访问并采取缓解措施,临界风险系统则会停止开发。此举是对Meta开放AI策略的回应,旨在平衡技术利益与风险,并与DeepSeek等公司形成对比,Meta认为有必要在保持技术利益的同时,控制风险。

⚠️Meta定义了“高风险”和“临界风险”AI系统,前者可能协助网络安全攻击等,后者可能导致无法减轻的灾难性后果,如高影响力生物武器扩散。

🛡️Meta将根据内部和外部研究人员的意见,以及高层决策者的审查来分类系统风险,而非依赖明确的量化指标,这显示了AI风险评估的复杂性。

🛑对于高风险系统,Meta将限制内部访问,并采取缓解措施降低风险;对于临界风险系统,则会采取安全措施防止外泄并停止开发,体现了Meta对高危AI的谨慎态度。

⚖️Meta的“前沿人工智能框架”是对其开放AI策略的反思,旨在平衡技术利益与风险,并与DeepSeek等公司形成对比,表明Meta在AI发展上的社会责任感。

Meta 公司首席执行官马克-扎克伯格(Mark Zuckerberg)曾承诺,有朝一日将公开人工通用智能(AGI)--大致定义为可以完成人类可以完成的任何任务的人工智能。 但在一份新的政策文件中,Meta 表示在某些情况下可能不会发布其内部开发的高能力 AI 系统。

这份文件被 Meta 称为"前沿人工智能框架"(Frontier AI Framework),它指出了两类公司认为风险过高而不能发布的人工智能系统:"高风险"和"临界风险"系统。

根据 Meta 公司的定义,"高风险"和"临界风险"系统都能协助网络安全、化学和生物攻击,区别在于"临界风险"系统可能导致"在拟议部署环境中无法减轻的灾难性后果"。 相比之下,"高风险"系统可能会使攻击更容易实施,但不如"临界风险"系统可靠。

Meta 公司举了几个例子,如"自动端到端破坏受最佳实践保护的企业级环境"和"高影响力生物武器的扩散"。 该公司承认,Meta 文件中列出的可能灾难远非详尽无遗,但其中包括 Meta 认为"最紧迫"、最有可能因发布强大的人工智能系统而直接导致的灾难。

让人感到有些意外的是,根据这份文件,Meta 对系统风险的分类并不是基于任何一项经验测试,而是参考了内部和外部研究人员的意见,并由"高层决策者"进行审查。 Meta 公司表示,它不认为评估科学"足以提供明确的量化指标"来决定一个系统的风险程度。

如果 Meta 确定某个系统为高风险系统,该公司表示将在内部限制对该系统的访问,并且在实施缓解措施"将风险降低到中等水平"之前不会发布该系统。 另一方面,如果某个系统被认定为严重风险,Meta 公司表示将实施不明的安全保护措施,防止系统被外泄,并停止开发,直到系统的危险性降低为止。

Meta 的"前沿人工智能框架"(Frontier AI Framework)似乎是对该公司"开放"系统开发方法所受批评的回应,该公司表示,该框架将随着不断变化的人工智能环境而发展。 Meta 公司采取的策略是公开其人工智能技术--尽管按照通常的理解并不是开源的--与 OpenAI 等选择将其系统封闭在 API 后面的公司形成鲜明对比。

对 Meta 来说,开放式发布方式被证明是福也是祸。 该公司名为Llama的人工智能模型系列已经获得了数亿次下载。 但据报道,Llama也被至少一家美国对手用于开发防御聊天机器人。

Meta 发布《前沿人工智能框架》的目的可能还在于将其开放式人工智能战略与中国人工智能公司 DeepSeek 的战略进行对比。 DeepSeek 也公开了自己的系统。 但该公司的人工智能几乎没有保障措施,很容易被引导产生有害的输出

Meta 在文件中写道:"我们相信,在决定如何开发和部署高级人工智能时,通过同时考虑利益和风险,有可能以一种既能保持该技术对社会的利益,又能保持适当风险水平的方式向社会提供该技术。"

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Meta 人工智能 AGI 风险评估 开放策略
相关文章