index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html
![]()
OpenAI为应对潜在的企业间谍活动,对其安全体系进行了全面升级。此次升级包括实施“信息隔离”政策,限制员工接触敏感算法和新产品,例如在o1模型开发期间,仅允许审查通过并具备相应权限的团队成员在公共办公区讨论。此外,OpenAI还采取了专有技术离线存储、生物识别门禁、严格的互联网接入控制等措施。这些举措反映了外界对外国对手窃取OpenAI知识产权的担忧,同时也可能应对内部安全隐患,包括人才争夺战和信息泄露事件。
🔒 OpenAI实施“信息隔离”政策,限制员工接触敏感算法和新产品,例如在o1模型开发期间,只有通过审查并具备相应权限的团队成员,才可以在公共办公区讨论相关内容。
💻 OpenAI将专有技术隔离在离线计算机系统中,以防止未经授权的访问和数据泄露。
🚪 OpenAI在办公区域实施生物识别门禁(包括指纹识别),加强物理安全,限制未经授权人员进入。
🌐 OpenAI采取“默认拒绝”的互联网接入政策,所有外部连接必须获得明确许可,加强网络安全控制。
🛡️ OpenAI提升了数据中心的物理安全等级,并扩充了网络安全团队,以应对潜在的安全威胁。
7月8日消息,据《金融时报》(Financial Times)报道,OpenAI近期全面升级了安全体系,以防范企业间谍活动。此次升级的安全措施包括“信息隔离”政策,旨在限制员工接触敏感算法和新产品。例如,在OpenAI开发o1模型期间,只有通过审查且具备相应权限的团队成员,才可以在公共办公区讨论相关内容。

此外,OpenAI还将专有技术隔离在离线计算机系统中,在办公区域实施生物识别门禁(包括指纹识别),并采取“默认拒绝”的互联网接入政策,要求所有外部连接必须获得明确许可。报道还称,OpenAI已提升了数据中心的物理安全等级,并扩充了网络安全团队。
据悉,这些举措凸显了外界对外国对手试图窃取OpenAI知识产权的普遍担忧。不过,考虑到美国AI企业间的人才争夺战愈演愈烈,以及CEO萨姆·奥特曼(Sam Altman)内部发言泄露事件频发,OpenAI或许也在试图解决其内部安全隐患。
查看评论