虎嗅 2024年08月16日
加州AI法案妥协通过,覆盖所有主流大模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

加州参议院通过了SB-1047法案,旨在为高风险AI大模型建立安全标准,防止其被滥用。该法案引发了硅谷的广泛争议,AI界人士认为法案条款过于严格,可能阻碍科技创新。法案的主要内容包括对基础模型和微调模型的监管,要求开发者承担法律责任,并设立监督机构。最终,法案经过修改后通过,将不再设立前沿模型处,但仍将设立委员会,发布安全指南。

🤔 **法案适用范围:** SB-1047法案主要针对使用超过10^26次整数或浮点运算的计算能力进行训练的AI模型,以及利用相同计算能力进行微调的模型。这些模型通常需要高昂的成本,并且具有强大的能力,因此需要进行严格的监管。

🛡️ **开发者责任:** 该法案要求AI模型的开发者对其模型的下游使用或修改承担法律责任。开发者需要在训练开始之前证明他们的模型不会启用或提供“危险功能”,并实施一系列保护措施来防止使用此类功能。

👮 **监管机构:** 加州政府将设立一个前沿模型委员会,制定安全标准并提供人工智能法律建议。AI企业需要向该委员会提供合规证明,如果操纵模型或提供不实信息,可能会面临法律责任。

📣 **吹哨人保护:** 法案中还加入了吹哨人保护条款,保护和鼓励AI开发实体内部的举报者,确保员工可以在不受报复的情况下报告企业的不合规情况。

💸 **第三方审计:** 从2028年1月1日起,要求开发者每年聘请第三方审计员进行独立审计,以确保AI模型的安全性。

☁️ **公共云计算集群:** 加州政府技术部门创建名为CalCompute的公共云计算集群,用于研究AI大模型的安全部署,并允许初创公司、研究人员和社区团体使用,帮助他们“使大规模人工智能系统与加州社区的价值观和需求保持一致”。

SB-1047是这个加州法案的编号,全称是《前沿人工智能模型安全创新法案》,试图为高风险的AI大模型建立明确的安全标准,以防止其被滥用或引发灾难性后果,如造成多人死亡,或者5亿美元以上的损失,将会追究开发者的法律责任。

该法案于今年2月份在参议院提出,马上引起了很大的争议。AI圈子里的研究人员、创业者、独角兽、巨头们认为,法案中的许多条款过于不合理,将对科技创新造成毁灭性的影响。其中争议的焦点,是从研发阶段针对基础大模型监管,还是监管大模型的应用;法案应该如何界定根据开源大模型定制模型的责任。

刚刚结束的加州参议院拨款委员会,在做出一些修改后通过了该法案。其中的一个重要改动,是加州检察部门将不会起诉那些疏忽安全措施的AI企业;但是,检察部门仍然可以通过救助令,要求AI企业停止其AI系统的操作,如果AI系统造成了上述损失,仍然将起诉。这个建议是Anthropic提出的。

以下是SB-1047法案的主要内容,看看为何引起了硅谷的愤怒:

1. 法案适用基础模型:使用超过10^26次整数或浮点运算的计算能力进行训练的人工智能模型,成本超过一亿美元。成本根据训练开始时开发者合理评估的云计算平均市场价格计算得出。

2. 法案适用微调模型:利用等于或大于10^25次整数或浮点运算三倍的计算能力,对范围内的模型进行微调而创建的人工智能模型。

3. 法案要求模型开发者对其模型的下游使用或修改承担法律责任。在训练开始之前,开发人员需要证明他们的模型不会启用或提供“危险功能”,并实施一系列保护措施来防止使用此类功能。

4. 加州政府将增设一个“前沿模型处”,这个监督和监管机构将制定安全标准并就人工智能法律提供建议。AI企业需向该部门提供合规证明,如果操纵模型,提供不实信息,可能会坐牢。

5. 法案中还加入了吹哨人保护条款,保护和鼓励AI开发实体内部的举报者,确保员工可以在不受报复的情况下报告企业的不合规情况。

6. 从2028年1月1日起,要求开发者每年聘请第三方审计员进行独立审计。

7. 加州政府技术部门创建名为CalCompute的公共云计算集群,用于研究AI大模型的安全部署;将允许初创公司、研究人员和社区团体使用,帮助他们“使大规模人工智能系统与加州社区的价值观和需求保持一致”。

法案基本覆盖了现在市面上所有主流的大型模型。如果法案通过,这些模型都将被定义为存在“潜在危险”或需要加强监督。

该法案一经推出,立即引发AI业界的激烈反对。a16z普通合伙人Anjney Midha表示,如果这项法案在加州获得通过,将为其他州树立先例,并在美国国内外产生连锁反应,对AI创新的影响将会带来巨大的蝴蝶效应。

在学界的加州大学伯克利分校、斯坦福大学教授、“AI教母”李飞飞、吴恩达等都反对这一法案。Meta、Google、YC等都表达了反对意见。但“AI教父”辛顿、图灵奖得主本吉奥等支持这一法案。

最终提出这一法案的参议员维纳做出了几点妥协:

不再设立前沿模型处。但是仍然设立了前沿模型委员会,人数从5人增加到9人,仍将为适用的模型设定计算阈值,发布安全指南。

维纳本人还做出了一些修改,人工智能实验室只需提交概述其安全实践的公开声明,但该法案不再对此施加任何刑事责任。

法案的措辞也变得宽松一些。要求开发人员提供“合理的谨慎”以确保AI模型不会造成重大灾难风险,而不是之前法案要求的“合理保证”。

开源微调模型也得到了一点保护。如果有人花费不到1000万美元微调模型,法案明确不将他们视为开发者。责任仍将由基础模型的开发者承担。

维纳是来自旧金山的加州民主党参议员,他提出了这个法案,就是“为最强大的人工智能系统的开发者制定明确、可预测、符合常识的安全标准”,确保大规模人工智能系统的安全发展。威纳认为,加州立法机构应该吸取教训,过去十年硅谷新技术“无约束增长”,而不评估、理解或缓解风险。

8月AI立法

8月是人工智能监管的一个重要月份。欧洲人工智能法1日正式生效。加州的这个SB-1047法案通过了参议院的拨款委员会,8月底将在加州议会表决,如果通过,加州州长纽森将签署为加州法律。但硅谷的怨气仍未平息。一些民主党议员要求纽森否决这一法案。

这次关于AI的立法,与之前的个人数据与隐私保护的立法方面类似,先是欧盟积极立法,于2018年实施了GDPR,基于这部法律在各个领域的应用,此后又制定了一串相关法律,来补充或具体规定GDPR在特定领域的应用,如《数字服务法》《数字市场法》《人工智能法》《平台工作指令》《政治广告条例》《欧洲数字身份条例》等。

但美国政府并没有制定出一部全国性的个人数据保护法,只有加州制定了CDPA法,于2020年1月1日生效。

AI立法同样如此。许多业内人士认为,这应该是联邦政府干的事,这次加州又挑头了。SB-1047最终通过,将会对于美国乃至全球的AI监管,产生深远的影响。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI监管 SB-1047 加州 人工智能 大模型
相关文章