IT之家 03月07日
OpenAI AI 安全策略遭质疑,前高管批评其“篡改公司历史”
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

OpenAI近期分享了其谨慎部署AI模型的方法,并以GPT-2的发布为例证,强调逐步发布策略的重要性。然而,前OpenAI政策研究员Miles Brundage对此提出批评,认为OpenAI歪曲了AI安全的历史。Brundage指出,GPT-2的发布同样采取了逐步推进的方式,且OpenAI在每个阶段都分享了相关信息,安全专家也认可其谨慎态度。他担忧OpenAI声称AGI将通过逐步发展而非突发突破的说法,并认为OpenAI可能为了追求进步和利润而忽视长期安全问题,从而带来潜在风险。

🛡️ OpenAI强调其对AI安全和模型部署的谨慎态度,认为从现有工具中学习是确保未来系统安全的关键,并以GPT-2为例,说明其逐步发布策略。

🗣️ Miles Brundage批评OpenAI歪曲GPT-2的发布历史,他指出GPT-2的发布同样采取了逐步推进的方式,并且OpenAI在每个阶段都分享了相关信息,安全专家也认可其谨慎态度。

⚠️ Brundage表达了对OpenAI声称AGI将通过逐步发展而非突发突破的说法的担忧,并警告说,OpenAI可能为了追求进步和利润而忽视长期安全问题,从而带来潜在风险。

IT之家 3 月 7 日消息,据外媒 Wccftech 当地时间 6 日报道,OpenAI 最近向社区分享了其谨慎、逐步部署 AI 模型的方法,采取分阶段发布的策略,并以 GPT-2 的谨慎发布为例。然而,这一示例引发了前 OpenAI 政策研究员 Miles Brundage 的批评,他指责公司歪曲了 AI 安全的历史。

OpenAI 发布的文件阐明了其对 AI 安全和模型部署的态度。文件中强调,公司在处理现有系统时始终保持谨慎,并提到 GPT-2 是其谨慎发布策略的一部分。公司“相信”只有通过从现有工具中学习,才能确保未来系统的安全。

IT之家附文件部分内容大意如下:

在一个不连续的世界中…… 安全的教训来自于对当今系统的极度谨慎,尤其是相对于它们表现出来的力量,这正是我们对 GPT-2 的方法。我们现在将第一个 AGI 视为逐步增加有用性的系统中的一部分… 在连续的世界中,确保下一个系统安全且有益的方式是从当前系统中学习。

曾任公司政策研究负责人多年的 Miles Brundage 坚称,GPT-2 的发布同样采取了逐步推进的方式,OpenAI 在每个阶段都分享了相关信息,安全专家也对公司在处理模型时的谨慎态度表示认可。他认为,GPT-2 的逐步发布与公司当前的逐步部署策略一致,并坚信过去的谨慎并非过度,而是必要且负责任的。

“这篇文章大部分内容都很好,我为那些致力于其中所讨论的实质性工作的人们点赞。但我非常不满 / 担忧‘AGI 分步实现而非一蹴而就’这一说法,它以令人不安的方式重写了 GPT-2 的历史。”

Brundage 还表达了对 OpenAI 声称 AGI 将通过逐步发展而非突发突破的说法的担忧。他指出,公司歪曲 GPT-2 发布历史并篡改安全历史的做法令人担忧。他还表示,OpenAI 发布该文件的目的可能是为安全问题设立标准,或将这些问题视为过度反应,可能带来巨大的风险,尤其是在 AI 系统正在日益进步的当下。

这并非 OpenAI 第一次因过度追求进步和利润而忽视长期安全问题而受到批评。像 Brundage 这样的专家担心,如果不对 AI 安全保持谨慎,未来可能面临的风险将十分严重。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

OpenAI GPT-2 AI安全 Miles Brundage AGI
相关文章