IT之家 05月15日 15:43
OpenAI 上线安全评估中心,定期公开 AI 模型评估结果以提升透明度
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

OpenAI 宣布将更频繁地公开其人工智能模型的安全评估结果,以提高透明度。公司上线“安全评估中心”网页,展示模型在有害内容生成、模型越狱以及幻觉现象等方面的测试表现。OpenAI 旨在让用户更清晰地了解其系统随时间的安全性能变化,并支持行业在透明度方面的共同努力。此前,OpenAI 曾因安全测试流程过快等问题受到批评。近期,GPT-4o 模型因回应方式过于“谄媚”被撤销更新,OpenAI 将采取修复和改进措施,包括引入“alpha 阶段”测试。

🛡️OpenAI 推出“安全评估中心”网页,旨在公开展示其模型在有害内容生成、模型越狱以及幻觉现象等方面的测试表现,以提高透明度。

📈OpenAI 计划在未来的重大模型更新后及时更新网页内容,并承诺持续发布模型相关指标,展示其安全性能随时间的变化。

🗣️OpenAI 希望通过公开安全评估结果,支持整个行业在透明度方面的共同努力,并促进人工智能评估科学的发展。

⚠️OpenAI 曾因部分旗舰模型的安全测试流程过快以及未发布技术报告受到批评,近期 GPT-4o 模型因回应方式问题被撤销更新。

💡针对 GPT-4o 模型的问题,OpenAI 将采取一系列修复和改进措施,包括为部分模型引入一个可选的“alpha 阶段”,允许用户在正式发布前进行测试和反馈。

IT之家 5 月 15 日消息,OpenAI 宣布将更频繁地公开其内部人工智能模型的安全评估结果,以提高透明度。该公司于周三正式上线了“安全评估中心”网页,旨在展示其模型在有害内容生成、模型越狱以及幻觉现象等方面的测试表现。

OpenAI 表示,该安全评估中心将用于持续发布模型相关指标,并计划在未来的重大模型更新后及时更新网页内容。OpenAI 在一篇博客文章中写道:“随着人工智能评估科学的不断发展,我们致力于分享我们在开发更具可扩展性的模型能力与安全评估方法方面的进展。”该公司还强调,通过在此公开部分安全评估结果,不仅希望让用户更清晰地了解 OpenAI 系统随时间的安全性能变化,也期望能够支持整个行业在透明度方面的共同努力。此外,OpenAI 提到可能会随着时间推移在该中心增加更多评估项目。

此前,OpenAI 曾因部分旗舰模型的安全测试流程过快以及未发布其他模型的技术报告而受到一些伦理学家的批评。公司首席执行官山姆・奥尔特曼(Sam Altman)也因被指在 2023 年 11 月短暂被免职前误导公司高管关于模型安全审查的问题而备受争议。

IT之家注意到,就在上个月末,OpenAI 不得不撤销对 ChatGPT 默认模型 GPT-4o 的一次更新。原因是用户报告称该模型的回应方式过于“谄媚”,甚至对一些有问题的、危险的决策和想法也表示赞同。针对这一事件,OpenAI 表示将采取一系列修复和改进措施,以防止类似事件再次发生。其中包括为部分模型引入一个可选的“alpha 阶段”,允许部分 ChatGPT 用户在模型正式发布前进行测试并提供反馈。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

OpenAI 安全评估 模型 透明度 GPT-4o
相关文章