点击蓝字

关注我们

海外智库观察

近年来,随着生成式人工智能(Generative AI)和基础模型的迅速扩张,全球对人工智能治理的关注焦点正从“发展能力”向“规制能力”转移。美、欧、中、英等主要人工智能治理体制正面临一个共同难题,即当模型能力不再仅由“预训练规模”决定,而是越来越依赖于推理阶段的算法优化与系统结构设计时,原有基于算力阈值、数据规模等静态指标所构建的监管框架开始失效,政策触发机制出现空转,技术合规路径变得更加隐蔽而动态。

在此背景下,中、美、欧的人工智能治理路径显现出明显差异:欧盟侧重通过人工智能法案与责任立法构建前端预防与后端救济的双轨体系,强调可解释性与人权保障。美国则更依赖市场驱动与技术演化,自下而上推进“软约束”机制。中国采取“备案制+分级监管”模式,强调算力集中监控与平台责任整合。

值得注意的是,欧盟在《人工智能法案》出台的同时,却撤回了原本配套的《人工智能责任指令》(AILD),使得高风险人工智能应用场景中的责任归属仍存空白。欧盟政策研究中心对此呼吁通过统一的法规形式确立“责任链条”的完整性,以保障消费者权利并增强创新信心。

在这种背景下,未来世界各国如何在推理机制监管、算法透明标准与跨境协作机制等方面达成制度对接,如何在技术加速与制度滞后的矛盾中开辟治理新范式,成为全球人工智能治理的前沿议题与战略焦点。通过推动跨国数据披露框架、行业基准测试体系与“推理阶段责任机制”创新,全球有望建立从“模型透明”到“部署责任”的协同治理路径,弥合制度缝隙,真正实现人工智能安全、可控、负责任地发展。


ArXiv

Archive

超过预训练前沿的人工智能治理

当前,全球多个司法管辖区(美国、欧盟、英国、中国)正围绕前沿人工智能制定或修订法律,而其核心依据是“预训练规模决定人工智能能力”的假设。然而,随着模型规模增长遭遇瓶颈,业界开始转向依赖推理阶段的新技术。这种范式转移为以预训练规模为基础的人工智能治理框架带来重大挑战。arXiv今年1月27日发布的报告指出了这些挑战,并提出更新合规路线图,旨在提升透明度、聚焦新的瓶颈节点,实现合理监管。

报告指出,过去几年,人工智能能力主要通过扩大预训练(算力与数据)提升,这一“放之四海而皆准”的路径也方便监管者通过监控训练资源(如 FLOPs)进行合规、预测性能,并将监管焦点集中在资源雄厚的大模型开发者身上。就此,论文提出“预训练前沿”(pretraining frontier)概念,即在现有资源约束下,仅靠提升预训练规模能实现的能力极限(如算力、数据、能源等)。现实中,这一范式已接近上限,出现“数据壁垒”,导致预训练继续扩张的成本与收益不成正比。实际上,在预训练增长受限时,人工智能能力持续增强则得益于推理阶段的新突破,例如更高效的推理算法、结构设计或多模态输入等技术。此后,人工智能发展将越发绕开监管设置的“训练规模”阈值,监管框架将被此类黑箱技术模糊,管理将愈加分散。

报告总结了当前人工智能治理的三个脆弱点

第一,当前监管多以FLOPs等定量预训练标准为触发机制,一旦预训练不可再支配人工智能能力,原有触发机制将失效。

第二,随着技术路径进一步多元化,监管对象与模式将变得分散且难以追踪。

第三,监管仍需兼顾安全、创新自由和人权,若框架不提升适应性,可能不仅徒劳,还会影响产业竞争力与安全审查效益。

针对以上问题,报告提出了三项解决手段

第一是提升透明度。监管方应要求人工智能公司披露训练用数据集、推理算力、算法机制,并加强评估体系,打破“预训练规模”监管盲点。

第二,突破技术瓶颈。监管方可以利用尚可追踪的算力、硬件约束为监管锚点,如推理 GPU 使用量、并发调用规模等。监管方可以保留原有轻监管优点,同时加入适应黑箱推理的动态审查方法。同时,可以鼓励前沿技术研发者合作,设立行业基准检测标准。

最后,增强监管能力与响应机制。手段之一是建立跨国协作平台,动态更新触发门槛。同时,利用持续实验与监控系统,确保新型人工智能合规路径安全可控。

报告总结道,人工智能技术路线正在变革,而监管如果继续沿用老框架,就会在关键时刻失效。为确保人工智能安全可控,法规体系需从“单一路径”的预训练聚焦,扩展到“多路径”,“多机制”监控方式,并继续兼顾创新、效率和基本人权。

欧洲政策研究中心

Centre for European Policy Studies

人工智能责任法规将完善欧盟人工智能策略

报告指出,欧盟委员会在 2025 年工作计划中,事实上废除了《人工智能责任指令》(AILD,以下简称《指令》),而这一举措可能动摇欧盟新兴人工智能政策框架的信任基础。同时,撤回《指令》会剥夺人工智能损害受害者的重要法律保障,也让企业在创新过程中的法律不确定性增加。在所谓的“更大胆、更简洁、更快速联盟”目标中,放弃人工智能责任框架可能削弱欧洲的竞争优势,并在人工智能法律体系中留下巨大空白,从而削弱欧盟所倡导的信任生态系统,以及支持“欧盟制造人工智能(AI made in EU)”的目标。

首先,报告探讨了人工智能对现有责任规范造成的挑战。第一,先进人工智能技术与传统软件有显著差异。其复杂、不透明、结果难以预测等特点,使得企业和受害者难以追责。例如,招聘工具歧视、医疗诊断误导甚至生成式人工智能诽谤面临无人负责的困境。而当前的《产品责任指令》(PLD)和各国的责任制度也无法充分应对这种情况。第二,2022年提出的《指令》尝试建立一个统一框架,但仅作为对国家制度的补充,未涵盖生成式人工智能等新挑战,也忽略了人工智能价值链的复杂性。报告强调,欧盟必须填补这一制度漏洞,以保持其在可信人工智能领域的领先地位。

此外,报告反驳了“责任阻碍创新”这一谬论。一些反对人工智能责任法规的人士认为它会打击创新,但事实正好相反。现行环境下,人工智能企业须面对 至少27个不同国家的各类责任与诉讼制度,而这带来了高昂法律成本。实际上,中小企业面临的压力尤其大,只有少数中美科技巨头能应对。报告指出,统一的 人工智能法规将降低法律成本,简化合规流程,加强投资信心,促进欧洲人工智能安全经济发展。据欧盟研究称,人工智能责任法规推进后,考虑事故减少等因素,欧盟经济价值可提升近 4980 亿欧元。

由此,报告提出了需要完善的四大方面。第一,欧盟人工智能规制应以 Regulation(法规)形式制定,确保成员国间完全统一,避免因指令导入造成的法制碎片化。第二,应引入责任证明倒置机制,让受害者不再承担全部举证成本。同时,在高风险人工智能系统中实行严格责任,即使违法主体无过错也须赔偿。第三,确保价值链责任链条完整。法规应覆盖整个 AI 价值链,从基础模型开发者到系统集成商均设责任,杜绝最终用户被迫放弃索赔权。最后,需要明确补偿范围。高风险与非高风险人工智能系统导致的损害都应纳入覆盖范围,包括知识产权、人格权及歧视伤害等,以确保受害者获得救济。

报告总结道,欧盟若无法妥善解决人工智能责任法规的问题,则将使受害者陷入追责困难的困境,小企业也将陷入法律迷宫。这会让让美国和中国巨头借机进一步扩大优势。报告强调,欧盟应建立统一、可预期的法律框架,在保护消费者的同时,激发创新并巩固欧盟在全球人工智能市场的地位。

原文链接:

1.https://arxiv.org/pdf/2502.15719

2.https://www.ceps.eu/an-ai-liability-regulation-would-complete-the-eus-ai-strategy/

文章检索及编译:康思博(伦敦政治经济学院)

审核:赵杨博

排版:李森(北京工商大学)

终审:梁正、鲁俊群

清华大学人工智能国际治理研究院编
上述信息均根据原文内容整理,谨供读者参考,不代表本机构立场和观点

往期回顾

海外智库丨人工智能国际治理观察第281期

海外智库丨人工智能国际治理观察第280期

海外智库丨人工智能国际治理观察第279期

关 于 我 们



清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。

新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG

内容中包含的图片若涉及版权问题,请及时与我们联系删除