点击蓝字
关注我们
9月5日,欧洲委员会宣布《人工智能与人权、民主和法治框架公约》正式向全球各国开放签署。这是全球首部具有法律约束力的公约,由欧洲委员会牵头制定,一共有57个国家参与了讨论过程,其中包括加拿大、以色列、日本、澳大利亚等11个非欧盟成员国。官方最新消息显示,目前已经有10个国家和组织签署了《AI公约》,美国、欧盟、英国、以色列都在首批签署名单中。接下来,《AI公约》需要各个签署国国内立法机构的批准,一旦得到5个立法机构的批准(其中至少包括3个欧洲委员会成员国),公约会在三个月后开始生效。
《AI公约》旨在解决AI风险和安全问题,主要聚焦于保护人权。牵头制定的欧洲委员会(Council of Europe)为国际组织,宗旨为维护欧洲的人权、民主和法治,而非欧盟委员会这样的行政机构。具体内容上,《AI公约》共8章36个条款,为AI规定了一系列原则,包括保护隐私和个人数据、平等和非歧视、不损害人的尊严和自主……公约要求签署国对人AI产生的任何有害和歧视性结果负责,并要求AI侵权的受害者拥有法律追索权。
整体而言,本次欧洲委员会宣布开放签署的《人工智能与人权、民主和法治框架公约》总体有三方面的具体功能:
首先是确立基本原则。公约规定,人工智能系统生命周期内的活动必须遵守以下基本原则:
1. 人类尊严和个人自主权
2. 平等和非歧视
3. 尊重隐私和个人数据保护
4. 透明度和监督
5. 问责制和责任制
6. 可靠性
7. 安全创新
其次是制定人工智能研发和应用的补救措施、程序性权利和保障措施。其中,重点探讨了以下几个方面:
1. 如何记录有关人工智能系统及其使用的相关信息,并确保受影响人员的知晓权限
2. 如何保证信息必须足以使有关人员能够质疑通过使用该系统或主要基于该系统做出的决定,并质疑系统本身的使用
3. 如何保证向主管当局提出投诉的有效可能性
4. 如何提供当人工智能系统对人权和基本自由的享受产生重大影响时,受影响人员有效程序保障、保障措施和权利
5. 如何制定必须通知使用者正在与人工智能系统互动而非人类的相关规定
最后是面向国际社会提出针对人工智能技术风险管理和影响管理的具体要求,可以归纳为三大方向:
1. 以迭代方式对人权、民主和法治的实际和潜在影响进行风险和影响评估
2. 针对这些评估的实施情况,制定充分的预防和缓解措施
3. 准确应对当局有可能对某些人工智能系统的应用实行禁令或暂停令(“红线”)的可能性
和先前欧盟内部统一的AI治理法案不同,《AI公约》不仅涵盖公共当局(包括代表公共当局行事的私人行为者),也覆盖了私人行为者对人工智能系统的使用。《公约》为缔约方提供了两种在监管私营部门时遵守其原则和义务的方式:缔约方可以选择直接遵守相关公约条款,或者采取其他措施遵守条约条款,同时充分尊重其在人权、民主和法治方面的国际义务。另外,《框架公约》缔约方无需将条约条款应用于与保护其国家安全利益有关的活动,但必须确保此类活动尊重国际法和民主制度与进程。《框架公约》不适用于国防事务或研发活动,除非对人工智能系统的测试可能会干扰人权、民主或法治。
在整体执行方面,该《AI公约》的框架也设立了后续机制,即缔约方大会:由《框架公约》缔约方的官方代表组成,负责确定《框架公约》条款的执行程度。缔约方大会的调查结果和建议有助于确保各国遵守《框架公约》,并保证《框架公约》的长期有效性。缔约方大会还应促进与相关利益攸关方的合作,包括就《框架公约》执行的相关方面举行公开听证会。
时间轴
欧洲委员会《人工智能框架公约》的制定和通过涉及几个关键阶段和里程碑,深受欧盟《人工智能法》等现有人工智能法规的影响。以下是该公约从概念到各国正式通过和签署的详细时间表:
在 2024 年之前,欧盟已经通过制定《欧盟人工智能法》开始塑造其人工智能治理方法,该法为人工智能系统提供了统一的规则。该法案很可能影响了更广泛的讨论和概念,从而促成了全球条约的提出。公约的早期讨论和草案涉及欧洲委员会成员国、欧盟机构以及可能的其他国际利益相关者之间的广泛磋商。这些磋商旨在统一法律框架,解决不同国家的具体关切和法律标准。
- 初步概念和可行性研究(2019 年):欧洲委员会开始研究人工智能框架公约的可行性。这一初始阶段的重点是了解这一公约对人工智能治理的潜在范围和影响。
- 成立人工智能委员会(2022 年):负责起草和谈判公约文本。该委员会包括来自成员国、民间社会专家和私营部门的代表,以确保起草过程的全面性和包容性。
- 部长委员会通过:2024 年 5 月 17 日:《框架公约》在欧洲委员会部长委员会年会上获得通过。这一阶段标志着欧洲委员会最高决策机构对条约的正式认可,标志着成员国达成共识,重点是保障人权和促进负责任的人工智能创新。
- 正式开放签署:2024 年 9 月 5 日:在立陶宛维尔纽斯举行的欧洲委员会司法部长会议上,《公约》正式开放供签署。这一活动允许成员国和其他国家正式表示同意接受《公约》条款的约束。在开放供签署时,包括美国和以色列等欧洲以外的成员国在内的多个国家签署了《公约》,表明它们承诺将本国的人工智能法规与条约标准保持一致。这一条约不仅要与欧盟《人工智能法》等现有人工智能法规保持一致,还要在全球范围内推广这些原则,采取了全面合作的方法。这一过程包括反复谈判和调整,以适应关于人工智能和人权的不同法律制度和文化观点。
- 公共和私营部门的范围:该公约适用于公共和私营部门,但包括对用于国家安全目的的人工智能系统的豁免。这引起了人们对公约原则的适用和执行可能不平等的担忧。
批评与回应:尽管该公约具有开创性,但也面临着过于宽泛和模糊的批评,这可能会限制其在实施人工智能治理方面的有效性。弗朗西斯卡-法努奇等批评者强调了该条约的 “淡化 ”性质,以及其对国家安全的豁免和对私营公司的有限审查。
在全球范围内,虽然《框架公约》是对现有国际人权、民主和法治标准的补充,旨在填补因技术飞速发展而可能产生的法律空白,因此不规范技术,本质上是技术中立的。但是,有欧盟牵头,西方国家尤其是以美国阵营开始,迅速以第一批合作方姿态签署治理框架,本身就是一个政治意味强烈的举动。
首先,就在前不久,美国、英国和欧盟的监管机构签署了联合声明,旨在通过公平公开的竞争带来人工智能技术所能提供的机遇,并制定维护公平竞争和保护消费者的共同原则。该法案不仅涉及制定人工智能标准,还反映了一种地缘政治立场,强调西方在全球科技治理中的领导地位。这一合作是更广泛战略的一部分,旨在引领有关技术治理的全球讨论,并确保西方标准和价值观成为有关人工智能的国际协议的组成部分。
欧盟:欧洲在人工智能立法方面,正走在全球前列。欧盟于今年通过了全球首部全面监管人工智能的法规《人工智能法案》,为AI的开发与应用设立了全面的法规体系,对高风险应用实施严格监管,并在全球范围内树立了监管先例。内容包含法案生效的6个月后,社会评分、公共场所的生物识别系统等不可接受的风险将被全面禁止;生效的12个月后,ChatGPT这样的通用大模型需要进一步提高透明度,提高训练数据摘要、提供技术文档等。意味着高风险应用将面临越来越多的分阶段限制。而《公约》的推进与该法案几乎同步,与《人工智能法案》严格监管欧盟内部不同的是,虽然该公约具有法律约束力,但其适用范围更广,涵盖国际公共和私营部门。旨在协调人工智能的发展与核心社会价值观,制定一个潜在的法律框架,以确保人工智能技术的设计、部署和使用符合关于人权、民主和法治的标准。
美国:美国尚未有全国性的人工智能法规得到国会的批准。然而,加州,作为OpenAI、Meta等全球领先人工智能公司的总部所在地,通过了两项人工智能法案,目前等待州长的最终决定,虽然该法案要求人工智能公司披露其训练模型的关键信息,引发了许多行业领袖和学者的反对,认为这种透明度可能会扼杀学术界和开源领域的创新。此外,拜登政府设立了人工智能安全委员会和特别工作组,显示出对于人工智能监管的关注。
中国:中国当前的主要任务则是在西方阵营联合态势中准确寻找自己的定位并提升国际话语权。目前,中国在全球人工智能治理方面也表达了明确的立场。外交部曾表示,人工智能治理事关全人类共同福祉,应在联合国框架下进行讨论,增加发展中国家的代表性和发言权,推动形成广泛共识的治理框架和标准。此外,在第三届“一带一路”国际合作高峰论坛上,习近平主席宣布提出《全球人工智能治理倡议》,倡导各国加强信息交流和技术合作,共同应对风险,反对利用人工智能干涉他国内政。这表明公约签署后, 为了应对西方主导的倡议,中国会发展自己的盟友,并强调自己的技术标准和监管框架,反映其国家利益和技术主权。一方面,这凸显了全球技术割据和竞争意识正在逐渐加强的趋势。另一方面,未来人工智能治理的全球方法分化也成为国际治理的一大重点关注问题。
关于我们
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG