IT之家 2024年08月24日
前 OpenAI 研究人员警告“老东家”:若 AI 无监管将造成灾难性伤害
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

OpenAI 公开反对加州 SB 1047 法案,两名前员工致信反对老东家,称该法案要求AI公司防止模型造成严重损害,而OpenAI的反对令人失望,其CEO曾支持监管但实际却反对

💥OpenAI 对加州 AI 安全法案表示反对,这一行为引发了广泛关注。该法案旨在要求AI公司采取措施,防止其模型造成如开发危险生物武器或造成巨大经济损失等严重损害

😮两名 OpenAI 的前研究人员站出来公开反对自己的‘老东家’。他们曾因希望确保公司开发的AI系统的安全性而加入,但因公司失去他们的信任而离开

🙅‍OpenAI CEO 阿尔特曼曾多次公开支持对 AI 实施监管,但当实际监管措施准备出台时,OpenAI 却表示反对,这种行为受到前员工的指责

IT之家 8 月 24 日消息,据《商业内幕》北京时间今天上午报道,OpenAI 公开表示了对加州 SB 1047 法案(AI 安全法案)的反对意见之后,两名 OpenAI 的前研究人员则站出来公开反对自己的“老东家”,并提出警告。

美国加州 AI 安全法案将要求 AI 公司采取措施,防止其模型造成“严重损害”,例如开发可能导致大量人员伤亡的生物武器或造成超过 5 亿美元(IT之家注:当前约 35.66 亿元人民币)的经济损失

这些前员工向加州州长加文・纽森和其他立法者致信称,OpenAI 对该法案的反对令人失望,但并不令人意外

两名研究人员威廉・桑德斯和丹尼尔・科科塔伊洛在信中写道,“我们(以前)之所以选择加入 OpenAI,是因为我们希望确保该公司在开发的‘强大无比的 AI 系统’的安全性。但我们选择离开,是因为它失去了我们的信任 —— 能够安全、诚实、负责任地开发 AI 系统。”

信中还提到,OpenAI CEO 阿尔特曼曾多次公开支持对 AI 实施监管,但当实际的监管措施准备出台时,他们却表示反对。“在没有充分安全预防措施的情况下开发前沿 AI 模型,会给公众带来可预见的灾难性伤害风险。”

相关阅读:

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

OpenAI 加州 AI 安全法案 AI 监管 AI 安全
相关文章