欧盟委员会近日发布了针对具有系统性风险的AI模型的指导方针,旨在帮助这些模型更好地落实《人工智能法案》的要求。此举是为了回应部分企业对监管负担的担忧,并为企业提供明确的操作指引。根据法案,违规企业将面临巨额罚款。从8月2日起,《人工智能法案》将对具有系统性风险的AI模型和基础模型生效,包括谷歌、OpenAI等公司开发的模型,企业需在一年内完成合规。被定义为“具有系统性风险的模型”是指那些计算能力强,可能对公共健康、安全、基本权利或社会产生重大影响的AI系统。首批受监管的模型需要完成模型评估、风险识别与缓解、对抗性测试、重大事件报告以及网络安全防护等一系列严格的合规义务。对于通用型或基础AI模型,还新增了透明度义务,要求撰写技术文档、落实版权政策并详尽说明训练数据来源。欧盟官员表示,此举将确保监管更加清晰有效。
🎯 **明确监管对象与要求**:欧盟委员会发布指导方针,聚焦于被认定具有系统性风险的AI模型,要求它们更严格地遵守《人工智能法案》的规定,以有效降低潜在风险。这意味着这类AI模型将面临更重的合规义务,包括模型评估、风险识别与缓解、对抗性测试、重大事件报告以及网络安全防护等,确保模型不被滥用或盗用。
⚖️ **严厉的处罚机制**:若AI模型违反《人工智能法案》的规定,相关企业将面临严厉的经济处罚。罚款金额最高可达750万欧元,或其营业额的1.5%(最高3500万欧元),甚至可能达到其全球营业额的7%,这表明了欧盟对AI安全和合规的重视程度。
🗓️ **法案生效与合规期限**:自今年8月2日起,《人工智能法案》将正式适用于具有系统性风险的AI模型与基础模型,包括由谷歌、OpenAI、Meta、Anthropic和Mistral等知名科技公司开发的大型模型。相关公司需要在法案生效后的一年内完成所有合规要求,以避免潜在的法律风险。
🔍 **“系统性风险”的定义与透明度义务**:欧盟将“具有系统性风险的模型”定义为那些具备高度计算能力,并且有可能对公共健康、安全、基本权利或社会产生重大影响的AI系统。此外,对于通用型或基础AI模型,法案还新增了透明度义务,要求企业提供详尽的技术文档,明确版权政策,并公开训练数据的来源,以增强AI系统的可解释性和可追溯性。
IT之家 7 月 18 日消息,据路透社报道,欧盟委员会周五发布指导方针,帮助被认定具有系统性风险的 AI 模型落实《人工智能法案》的相关要求。这类模型将面临更严格的合规义务,以降低潜在风险。
这一举措旨在回应部分企业对《人工智能法案》监管负担的质疑,同时也为相关企业提供更明确的操作指引。根据该法案,若违反规定,企业将被处以 750 万欧元(IT之家注:现汇率约合 6249.6 万元人民币)或营业额 1.5%(最高 3500 万欧元)或全球营业额 7% 的罚款。

自今年 8 月 2 日起,该法案将适用于具有系统性风险的 AI 模型与基础模型,包括由谷歌、OpenAI、Meta、Anthropic 和 Mistral 开发的模型,各公司须在一年之内完成合规。
欧盟委员会将“具有系统性风险的模型”定义为具备高度计算能力、可能对公共健康、安全、基本权利或社会产生重大影响的 AI 系统。
首批受监管的模型需完成模型评估、风险识别与缓解、对抗性测试、重大事件报告,以及配备足够的网络安全防护,以防模型被盗或被滥用。
对于通用型或基础 AI 模型,还将新增透明度义务,包括撰写技术文档、落实版权政策,并详尽说明训练数据的内容来源。
欧盟技术事务主管亨娜・维尔库宁表示:“这份最新发布的指导方针将有助于《人工智能法案》的顺利实施,确保监管更加清晰有效。”