Cnbeta 04月14日
访问OpenAI API中的未来AI模型可能需要经过身份验证
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

OpenAI 计划推出“已验证组织”的身份验证流程,旨在提升其人工智能模型和功能的安全性。这项新措施要求组织通过政府签发的身份证件进行验证,以解锁OpenAI平台上更先进的模型和功能。此举旨在减少人工智能的不安全使用,并应对可能存在的知识产权盗窃行为。OpenAI 强调,此举是为了确保人工智能的安全使用,并应对少数开发者违反其使用政策的行为。该验证流程每90天限制一个身份证件的验证次数,并非所有组织都有资格参与。

🛡️ OpenAI 推出的“已验证组织”流程,是开发者解锁其最先进模型和功能的新途径,旨在增强平台安全性。

🛂 身份验证要求组织提供 OpenAI API 支持国家/地区签发的政府身份证件,每90天仅限一个组织使用一个身份证件进行验证。

⚠️ OpenAI 采取此措施,是为了减少人工智能的不安全使用,并应对违反其使用政策的行为,以及潜在的知识产权盗窃风险。

根据公司网站上上周发布的支持页面,OpenAI 可能很快会要求组织完成身份验证过程才能访问某些未来的人工智能模型。该页面写道,该验证流程名为“已验证组织”,是“开发者解锁 OpenAI 平台上最先进模型和功能的一种新方式”。

验证需要 OpenAI API 支持的国家/地区之一的政府签发的身份证件。OpenAI 表示,一个身份证件每 90 天只能验证一个组织,并且并非所有组织都有资格进行验证。

该页面写道:“在 OpenAI,我们认真履行责任,确保人工智能的广泛可及性和安全使用。遗憾的是,少数开发者故意违反我们的使用政策使用 OpenAI API。我们正在添加验证流程,以减少人工智能的不安全使用,同时继续向更广泛的开发者社区提供先进的模型。”

随着OpenAI产品变得越来越复杂和强大,新的验证流程可能旨在增强其产品的安全性。该公司已发布多份报告,介绍其如何检测和减少其模型的恶意使用,其中包括据称来自朝鲜的团体。

这也可能是为了防止知识产权盗窃。据彭博社今年早些时候报道,OpenAI 正在调查一个与中国人工智能实验室 DeepSeek 有关联的组织是否在 2024 年底通过其 API 窃取了大量数据,可能用于训练模型——这违反了 OpenAI 的条款。

OpenAI去年夏天阻止了中国大陆与香港、澳门对其服务的访问。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

OpenAI 身份验证 安全 人工智能模型
相关文章