Cnbeta 04月16日 06:22
如果竞争对手发布“高风险”AI OpenAI 可能会“调整”其安全措施
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

OpenAI 更新其安全准备框架,以应对日益激烈的竞争和快速发展的技术环境。此次调整包括在竞争对手发布缺乏类似安全措施的高风险系统时,可能调整其安全要求。OpenAI 还将更加依赖自动化评估来加快产品开发速度,并重新定义了模型风险分类,重点关注模型是否达到“高”或“关键”能力阈值。尽管面临对其安全标准的质疑,OpenAI 强调其承诺,即在调整过程中保持安全措施在“更具保护性的水平”。

🛡️ OpenAI 可能会根据竞争对手的行为调整其安全要求。如果其他人工智能开发商发布了没有类似安全措施的高风险系统,OpenAI 可能会调整其自身的安全标准。

⚙️ OpenAI 正在增加对自动化评估的依赖。为了加快产品发布速度,OpenAI 正在构建一套自动化评估系统,以补充人工测试,从而更快速地进行模型评估。

⚠️ OpenAI 重新定义了模型风险分类。该公司现在主要关注模型是否满足“高”或“关键”能力阈值,并根据这些分类采取不同的安全保障措施。

⏱️ 安全测试的时间安排受到关注。有报道称,OpenAI 在安全检查方面的时间安排较为紧凑,引发了对其安全措施是否充分的担忧。

📢 OpenAI 强调其安全承诺。尽管面临批评,OpenAI 坚称其将安全措施保持在“更具保护性的水平”,并承诺在调整过程中最大程度地降低风险。

OpenAI在其准备框架的更新中表示,如果竞争对手的人工智能实验室发布没有类似保障措施的“高风险”系统,它可能会“调整”其要求。OpenAI 使用这个内部框架来决定人工智能模型是否安全,以及在开发和发布期间需要哪些保障措施(如果有的话)。

这一变化反映出商业人工智能开发者面临着日益增长的竞争压力,需要快速部署模型。OpenAI 被指控为了加快发布速度而降低安全标准,并且未能及时提交详细的安全测试报告。上周,12 名 OpenAI 前员工在埃隆·马斯克 (Elon Musk) 起诉 OpenAI 的案件中提交了一份简报,称如果该公司完成计划中的公司重组,将被鼓励在安全方面进一步偷工减料。

OpenAI 或许预料到了会受到批评,因此声称不会轻易做出这些政策调整,并且会将其保障措施保持在“更具保护性的水平”。

OpenAI 在周二下午发布的博客文章中写道:“如果另一个前沿人工智能开发商发布了一个没有类似安全措施的高风险系统,我们可能会调整我们的要求。但是,我们首先会严格确认风险状况确实发生了变化,公开承认我们正在进行调整,并评估调整不会显著增加严重损害的总体风险,同时仍将安全措施保持在更具保护性的水平。”

更新后的准备框架也明确表明,OpenAI 将更加依赖自动化评估来加快产品开发速度。该公司表示,虽然尚未完全放弃人工主导的测试,但已经构建了“一套不断完善的自动化评估系统”,据称可以“跟上更快的发布节奏”。

一些报道与此相矛盾。据《金融时报》报道,OpenAI 给测试人员的时间不到一周,用于即将发布的主要模型的安全检查——与之前的版本相比,时间安排得相当紧凑。该媒体的消息来源还声称,OpenAI 的许多安全测试现在都是针对早期版本的模型进行的,而不是针对公开发布的版本。

OpenAI 在声明中对其在安全方面妥协的说法提出了质疑。

OpenAI 框架的其他变化涉及公司如何根据风险对模型进行分类,包括可以隐藏其能力、规避安全措施、防止其关闭,甚至自我复制的模型。OpenAI 表示,现在将重点关注模型是否满足两个阈值之一:“高”能力或“关键”能力。

OpenAI 对前者的定义是,一种能够“放大现有的严重伤害途径”的模型。该公司表示,后者则是“引入前所未有的、导致严重伤害的新途径”的模型。

OpenAI 在其博客文章中写道:“达到高性能的受保护系统在部署之前必须具备足够的保障措施,以最大程度地降低相关严重损害的风险。达到关键性能的系统还需要在开发过程中采取足够的保障措施,以最大程度地降低相关风险。”

这是 OpenAI 自 2023 年以来首次对防范框架做出的更新。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

OpenAI 人工智能 安全框架 模型风险 自动化评估
相关文章