OASIS Open 成立 CoSAI 安全联盟,旨在解决 AI 软件供应链安全性、网络领域安全性及 AI 安全治理性等问题。该联盟将与学术界和其它 AI 安全组织合作,建立一个协作生态体系,分享 AI 安全设计方法、标准化框架和工具,并通过认证“安全”的 AI 系统来构建、部署运营环境,降低模型操纵、模型盗窃等风险,为 B 端市场提供安全的解决方案。
🎯 **AI 软件供应链安全性:** CoSAI 联盟将重点关注 AI 软件供应链的安全问题,例如模型的来源、开发过程、部署方式等。联盟计划建立一个协作生态体系,分享与 AI 安全设计有关的“方法、标准化框架及工具”,并通过一系列被认证为“安全”的 AI 系统来构建、部署运营环境,以降低“模型操纵、模型盗窃、恶意训练数据、提示词‘越狱’”等情况发生的可能性。
🛡️ **网络领域安全性:** CoSAI 联盟还将关注 AI 在网络安全方面的应用,例如 AI 驱动的恶意软件检测、入侵防御等。联盟将与学术界和其它 AI 安全组织合作,研究如何利用 AI 技术来提高网络安全水平,并制定相应的安全标准和规范。
⚖️ **AI 安全治理性:** CoSAI 联盟还将关注 AI 安全治理方面的议题,例如 AI 系统的伦理问题、隐私保护、责任归属等。联盟将与学术界和其它 AI 安全组织合作,研究如何建立有效的 AI 安全治理机制,确保 AI 技术的负责任发展。
🤝 **合作与协作:** CoSAI 联盟将与 Frontier Model Forum、Partnership on AI、Open Source Security Foundation、ML Commons 等 AI 安全组织合作,以共同推动“负责任的 AI”。联盟相信,安全需要“集体行动”,为了安全地参与数字生态体系,大家都应该采用通用的安全标准,在 AI 方面“也并不例外”。
IT之家 7 月 21 日消息,专门推动全球结构化信息标准的非营利组织 OASIS Open(由微软、英伟达、英特尔、谷歌、OpenAI、IBM、亚马逊、思科等厂商组建)在 7 月 18 日宣布建立 CoSAI 安全联盟(Coalition for Secure AI,安全 AI 联盟)。

IT之家获悉,该联盟计划与学术界共同解决三大重点领域,分别是 AI 软件供应链安全性、网络领域安全性及 AI 安全治理性。同时将与 Frontier Model Forum、Partnership on AI、Open Source Security Foundation、ML Commons 等 AI 安全组织合作,以共同推动“负责任的 AI”。
具体来说,CoSAI 计划建立一个协作生态体系分享与 AI 安全设计有关的“方法、标准化框架及工具”,并通过一系列被认证为“安全”的 AI 系统来构建、部署运营环境,以降低“模型操纵、模型盗窃、恶意训练数据、提示词‘越狱’”等情况发生的可能性,从而为 B 端市场提供安全的解决方案。
OASIS 组织表示,安全需要“集体行动”,为了安全地参与数字生态体系,大家都应该采用通用的安全标准,在 AI 方面“也并不例外”。