美、欧人工智能治理的分歧、

影响及其对中国的启示


作者简介


梁正,经济学博士,清华大学人工智能国际治理研究院副院长、公共管理学院教授;王净宇,清华大学“水木学者”博士后、人工智能国际治理研究院助理研究员。

原载于《湖北社会科学》2024年第12期第42—50页。


摘要


人工智能是人类发展的新领域。面对人工智能技术的快速发展,美国和欧洲从2015年至今采取了一系列有关人工智能治理的重要尝试,将技术治理问题嵌入国家与地区的人工智能发展战略。但是在推进人工智能治理进程的过程中,美国和欧洲选择了有所不同的人工智能治理道路。双方在治理理念、治理原则、治理模式、治理手段等方面的分歧客观上扩大了全球人工智能治理的碎片化程度,在影响全球人工智能技术发展和风险管控的同时,也为世界各国的人工智能治理实践提供了更多选择。对中国来说,美欧人工智能治理的分歧及其影响可以提供加快构建“以我为主”的人工智能治理体系、加强对美对欧人工智能对话沟通、加大面向发展中国家的国际合作与援助三方面启示。

人工智能是人类发展的新领域。当前,全球人工智能技术的快速发展,对经济社会发展和人类文明进步产生深远影响。人工智能在给世界带来巨大机遇的同时,也带来了技术滥用、隐私安全、责任模糊、虚假信息、技术垄断的负面影响以及技术失控等难以预知的风险和复杂挑战。人工智能治理攸关全人类命运,是世界各国面临的共同课题。但是目前,不同国家在发展水平、政治制度、文化环境、治理理念等方面存在差异,对人工智能治理方式的选择有所不同。特别是美国和欧洲作为人工智能技术创新和产业应用最发达的地区,虽然各自出台了一系列人工智能治理的最新举措,但在人工智能治理问题上存在分歧,对人工智能风险的跨国监管、人工智能国际治理体系的协调构建等问题产生了较大影响,导致本就面临合理性、公平性、有效性三大赤字的人工智能国际治理问题面临更大挑战。在此背景下,有必要基于人工智能国际治理的视角,比较分析美欧人工智能治理模式的异同、评估美欧人工智能治理模式分歧的影响,以此对中国推动人工智能治理国际合作提出启示与建议。


一、美、欧人工智能治理的整体进程


根据斯坦福大学的统计,从研发投入、基础研究产出、专利申请、人才培养、产业应用等各个维度来看,美国和欧洲都是中国之外全球人工智能发展最迅速的地区。随着近年预训练大模型等生成式人工智能的快速迭代,技术的跃迁式发展不断向人工智能治理提出新的挑战。为防范人工智能技术的负面危机外溢,维护自身技术的先发优势,美、欧在加快推动人工智能发展的同时将技术治理提升到国家与地区人工智能发展战略之中,有关人工智能全球监管标准与规则制定主导权的竞争日趋激烈。

美国人工智能治理进程

美国人工智能治理的进程始于奥巴马政府末期,在特朗普政府时期逐渐细化,到拜登政府时期已经被提升至事关美国国家竞争力和领导地位的重要高度。

第一,奥巴马政府较早布局人工智能治理,围绕促进技术发展、评估经济社会影响等问题进行了早期尝试。2016年10月,奥巴马政府发布了《人工智能研究与发展战略规划》《为未来人工智能做好准备》两份重要文件,设定了“提高前沿人工智能性能和可靠性”的发展目标,重点关注前沿人工智能技术在健康、交通、能源、国家安全等领域的应用价值,在提出“加强基础研究、推动跨部门合作、培养人工智能人才”等具体战略举措的同时,强调要加强对于人工智能技术应用的评估和监督。由于当时已经处于奥巴马政府任期的最后阶段,相关文件产生的实际影响较为有限。

第二,随着人工智能技术的快速发展,特朗普政府更加重视人工智能的发展和治理问题,在2017年《美国国家安全战略》、2018年《国防战略报告》等多项重大政策文件中提及人工智能对于美国国家安全和国际竞争力的战略意义,美国人工智能治理进程由此开始加速。2019年2月,时任美国总统的特朗普签署了题为《维护美国人工智能领先地位》的行政命令,明确了美国政府对于前沿人工智能技术的重视和支持,强调通过提高对人工智能技术研发的支持和投资力度保持美国在人工智能领域的全球领导地位。同时,该行政令也提出应关注前沿人工智能技术可能带来的伦理和社会影响,并将积极推动人工智能国际标准的制定与合作。2020年12月,特朗普政府发布《促进联邦政府使用可信人工智能技术》行政令,提出了包括尊重美国法律和价值观、公平、透明、安全、负责任、可追溯等在内的前沿人工智能治理原则。2021年1月,《2020年国家人工智能倡议法案》正式生效,法案将人工智能计划编入《国防授权法案》,要求成立国家人工智能倡议办公室等行政机构,每5年更新一次国家人工智能发展战略,进一步完善了美国人工智能治理的顶层设计和战略部署。

美国国防部发布

《数据、分析和人工智能采用战略》 

第三,2021年后,以大语言模型为代表的生成式人工智能掀起了全球人工智能技术发展的新浪潮,拜登政府将人工智能的监管和治理提升至关乎美国国家竞争力和领导地位的重要位置,从国内治理和国际治理两个维度进行了一系列重要布局。2022年10月,拜登政府发布《人工智能权利法案蓝图》,明确提出了公平、可解释、隐私保护、安全、负责任的“五项治理原则”。2023年10月,拜登签署《关于安全、可靠、可信地开发和使用人工智能的行政令》(后文简称《人工智能行政令》),要求对前沿人工智能进行新的安全评估,提出了建立人工智能安全标准、保护美国公民隐私、促进公平、维护消费者和劳工权利、促进创新和竞争、提升美国领导地位等具体的人工智能治理目标。不仅如此,拜登政府在行政令中还强调美国应成为人工智能领域的全球领导者,希望与盟友一道在人工智能全球技术标准和治理体系中发挥主导作用,在加强国内治理的同时试图将自身的治理体系在全球范围内进行推广。2024年3月,拜登政府牵头的决议《抓住安全、可靠和值得信赖的人工智能系统带来的机遇,促进可持续发展》获得联合国大会通过,鼓励会员国制定与人工智能系统相关的治理方法和框架,美国在人工智能国际治理领域的布局正在加速展开。

欧洲人工智能治理进程

欧洲是中美之外人工智能发展最快的地区,也是全球人工智能立法的领跑者。总体来看,欧洲的人工智能治理进程可以划分为2015至2018年、2018至2021年、2021年至今三个具体阶段。

第一,2015至2018年是欧洲人工智能治理的起步阶段。在此期间,欧盟逐渐提高对于人工智能的关注程度,部分成员国发布了有关人工智能发展的国家战略。2015年1月,欧洲议会发布《关于制定机器人和人工智能民事法规建议》的报告,提出要关注机器人和人工智能快速发展的社会影响,确保相关技术得到负责任和道德的使用,建议设立欧盟机器人和人工智能专门管理机构,针对性制定新的法律和道德规范,人工智能治理开始逐步进入欧盟立法议程。2017年5月,欧洲经济与社会委员会在题为《人工智能对数字市场、生产、消费、就业和社会影响》的报告中总结了人工智能在伦理、安全、隐私等11个领域的风险挑战,进一步强调欧洲需要建立完善的人工智能监管标准体系。到2018年初,法国、德国等欧盟成员国分别发布了《有意义的人工智能:走向法国和欧洲的战略》《人工智能造福人类》等人工智能发展战略,开启了欧洲人工智能治理的实践步伐。

第二,2018年到2021年是欧洲人工智能治理的加速阶段。在此期间,欧洲围绕区域内的人工智能跨国治理进行了大量尝试。2018年4月,25个欧洲国家联合签署《人工智能合作宣言》,同意在人工智能相关领域加强集体合作,在确保欧洲人工智能发展竞争力的同时,共同应对人工智能带来的社会、经济、伦理及法律风险,标志着欧洲正式开始在区域层面推动人工智能的规范化发展。在合作宣言的基础上,欧盟委员会随后发布《欧盟人工智能》战略和“人工智能协调计划”,明确设置了提升欧洲人工智能国际竞争力、帮助所有欧盟国家参与人工智能变革、确保欧盟价值观作为欧洲人工智能基础三项目标。在呼吁促进人工智能科技创新的同时,强调将人工智能限制在尊重欧盟的价值观、基本权利和道德原则的框架内发展。对此,战略具体提出了扩大公共和私人投资、积极应对人工智能经济社会影响、加快建立道德和法律框架三大支柱组成的欧洲人工智能治理路径。同年6月,欧盟委员会根据《欧洲人工智能》战略的布局,正式成立了人工智能高级专家组和人工智能联盟,开始着手研究和规划欧洲具体的人工智能政策。2019年4月,欧盟委员会发布《人工智能道德准则》,围绕“以人类为中心”的人工智能治理理念,确定了“尊重人的自主性、预防伤害、公平、可解释”四项治理目标,并由此提出了保证人类能动性和有效监督、确保技术安全、保护隐私和数据、确保透明度、保障非歧视和公平性、有利社会福祉、确保可追责等7项具体的人工智能治理准则。2020年2月,欧盟委员会连续发布《人工智能白皮书》《欧洲数据战略》《塑造欧洲数字化未来》3份重要文件,标志着欧洲人工智能治理的顶层设计和路线规划基本完成。

第三,2021年至今是欧洲人工智能治理的落地和细化阶段。在此期间,欧洲人工智能治理的重心从战略规划和软性规范转向硬性立法,全球首部人工智能全面监管法律——《人工智能法案》的制定构成了这一时期欧洲人工智能治理进程的核心。2021年4月,欧盟委员会首次发布《人工智能法案》提案,并提出加强欧洲人工智能治理方案沟通、评估人工智能法案影响等多项计划,正式开启了欧洲人工智能立法的步伐。同年11月至12月,欧盟理事会发布了关于《人工智能法案》的轮值主席折中方案,欧洲中央银行、欧洲经济和社会委员会、欧洲地方委员会等欧盟机构和咨询组织围绕《人工智能法案》提出了各自的观点。2022年12月,欧盟理事会通过了关于《人工智能法案》的共同立场,围绕人工智能系统定义、绝对禁止的人工智能行为、人工智能系统风险等级划分标准等核心问题达成共识。2023年6月欧洲议会通过了《人工智能法案》的草案表决后,欧盟成员国、欧盟理事会和欧洲议会就《人工智能法案》的具体条款进行了多轮谈判,并最终于2023年12月达成了有关《人工智能法案》的临时协议。2024年3月13日,欧洲议会正式批准了《人工智能法案》,待欧盟理事会批准后即将成为欧盟的正式法律。经历3年多的谈判磋商,《人工智能法案》的最终通过为欧洲的人工智能治理奠定了重要的法律基础,欧洲软性规范和硬性法律框架结合的人工智能治理体系逐渐成形。


二、美、欧人工智能治理的差异比较


综合美国和欧洲人工智能发展和治理的进程来看,美、欧人工智能治理均始于2016年前后,到2018年开始加速,直至 2021年生成式人工智能掀起新的发展浪潮后到达高峰。虽然美国和欧洲人工智能治理的整体进程呈现你追我赶的态势,但双方在具体的治理理念、治理原则、治理体系、治理方式和治理手段上存在明显差异,有关人工智能治理的分歧不容忽视。

治理理念的差异

治理理念是治理模式和治理体系生长的土壤和基础。美国和欧洲结合自身人工智能发展情况和传统价值取向,在人工智能问题上的选择了有所不同的治理理念。

第一,美国作为全球人工智能发展的领跑者,主张“有益的人工智能”,认为“负责任的人工智能应用”可以帮助人类解决一系列紧迫挑战,使世界更加繁荣、高效、创新和安全。其人工智能治理理念更加关注收益与风险、发展和安全的平衡,强调在“公平”的竞争环境中通过市场化、灵活性治理方式兼顾人工智能的创新与安全。正是基于这种治理理念,拜登政府在最新的《人工智能行政令》中乐观地提出,人工智能反映了创造者、使用者和训练数据的价值取向,美国有理由相信自身有能力利用人工智能为世界带来正义、安全和机会。2024年美国在联合国牵头提出的人工智能决议也更加关注人工智能带来的机遇,强调人工智能创新发展的重要性。不仅如此,美国共和党全国委员会在2024年7月发布的《2024年共和党执政纲领》中明确提出将废除拜登政府“阻碍人工智能创新”的行政命令,强调通过人工智能等引领世界的新兴产业,为美国未来经济的发展铺平道路。一旦共和党赢得年底的美国大选,美国很有可能在未来4年进一步采取“去监管”的治理理念,为人工智能企业提供更为宽松、自由的发展环境。

第二,欧洲作为人工智能领域的追赶者,主张“以人为中心”的人工智能治理,重视人工智能发展对人类尊严、自由、隐私、民主、法治等“欧洲基本价值观”的影响,强调人工智能发展的安全、可控。这一治理理念与欧洲一直以来“数字主权是欧洲战略自主的核心,没有数字主权就没有战略自主”的战略认知一脉相承,反映了欧洲希望通过将自身价值观念融入数据保护、人工智能、网络安全等领域,从而引领全球数字治理变革的战略雄心。受到“以人为中心”人工治理理念的影响,欧洲主张只有在不加剧现有环境和社会问题或损害集体利益的情况下,才能有条件地使用符合社会利益与道德的人工智能,在人工智能发展和安全的天平中更倾向安全一端。

治理原则的差异

治理原则是指导人工智能治理的核心依据和准则。虽然美国和欧洲并未同中国一样发布类似《新一代人工智能治理原则——发展负责任的人工智能》的治理原则文件,但均在各自的人工智能战略、行政令、法案等官方文件中提出了较为完整的人工智能治理原则。美、欧双方的治理原则在共同强调技术安全、保护隐私、保障公平等问题的同时,也存在涵盖内容、设计方式、概念解释三方面的差异。

第一,美、欧人工智能治理原则的涵盖内容不同。欧洲《人工智能法案》在2019年《人工智能道德准则》的基础上提出了“适用于所有一般人工智能系统的一般原则”,具体包括“人类主体和监督”“技术安全”“尊重隐私”“保持透明度”“保障多样性、非歧视和公平”“有利社会和环境福祉”6项原则。相关原则全部聚焦人工智能治理中的风险和监管问题。而结合前文美国人工智能治理进程的概述来看,美国政府在《促进联邦政府使用可信人工智能技术》《人工智能权利法案蓝图》等多个官方文件中提及过人工智能治理原则,其中以拜登政府《人工智能行政令》中的治理原则最为丰富,具体包括“安全可控”“负责任的创新”“保护美国工人”“公平和公民权利”“消费者保护”“隐私和公民自由”“负责任的政府使用”“引领全球技术进步”8项原则。相比之下,美国人工智能治理原则涉及安全问题之外的发展问题,关注的范围比欧洲更为广泛。

第二,美、欧双方治理原则的设计方式不同。从治理原则涵盖内容的差异可以看出,美国和欧洲对于人工智能治理问题的理解存在分歧,这也导致双方治理原则的设计方式存在不同。具体而言,欧洲更多将治理原则作为具体的技术标准进行设计,“保障多样性、非歧视和公平”“保持透明度”“有利社会和环境福祉”等原则一定程度上涉及人工智能监督和管理的技术细节问题,整体设计比美国更加细致。反观美国,则更多将治理原则作为战略目标进行设计,“负责任的创新”“负责任的政府使用”“引领全球技术进步”3项原则直接涉及科技创新、政府投入、技术竞争等事关人工智能发展优势和国际标准规则主导权的问题,整体设计比欧洲更具战略眼光。

第三,美、欧双方治理原则对部分概念的解释存在差异。除了涵盖内容和设计方式上的差异,美国和欧洲在对于“安全可控”“尊重隐私”等双方共同关注原则的理解也有所不同。例如,在安全原则上,欧洲主要关注人工智能算法本身的可靠性和安全性,仅用较短的篇幅提及“确保人工智能抵御外部攻击和不当干扰”的问题。而美国则认为“包括生物技术、网络安全、关键基础设施和其他国家安全危险”是人工智能可能造成的最紧迫的安全风险,在安全原则中更加关注人工智能系统滥用、误用造成的危害。同时,美国在安全原则中强调“美国政府希望在不过多减少人工智能正面影响的前提下管控相关风险”对于安全原则的定位和排序显然不如欧洲靠前。

治理模式的差异

治理模式是实施人工智能治理的基本框架。受到治理理念和治理原则的影响,美国采用了基于具体应用场景的分散化治理模式,欧洲则选择通过基于风险等级的统一治理框架对不同场景的人工智能应用进行集中管理。

第一,美国的人工智能治理模式呈现典型的分散化特征。从美国《人工智能行政令》的安排来看,虽然拜登政府要求白宫管理和预算办公室(Office of Management and Budget, OMB)和白宫科学与技术政策办公室(Office of Science and Technology Policy, OSTP)组织财政部、国防部、农业部、商务部、劳工部、国家科学基金会等多部门共同成立指导美国人工智能治理工作的“跨部门协调委员会”,并由科学与技术政策办公室主任作为副主席负责日常工作,但该委员会并不具备实际的行政职能。美国人工智能治理的具体实施仍基于现有机制,依靠各政府部门对各自职能范围内的人工智能应用场景进行管理。例如,美国联邦贸易委员会(Federal Trade Commission, FTC)在2023年5月发布的指南中将人工智能在商业实践中产生的深度伪造、过度推荐等有关消费者保护的内容纳入自身管辖范围;美国电信和信息管理局(National Telecommunications and Information Administration, NTIA)在2023年4月出台AI问责政策征求意见稿中针对人工智能系统的数据访问权限、问责机制等进行布局;美国能源部通过下设的关键和新兴技术办公室(Office of Critical and Emerging Technologies)对人工智能对能源基础设施及清洁能源发展的影响、人工智能对核能利用与核威胁的影响等具体问题进行治理;美国国防部则在2023年1月更新的《自主武器系统指南》中提出由首席数字和AI办公室(Chief Digital and Artificial Intelligence Office, CDAO)加强对人工智能和自主武器系统研发、测试、使用的监管。

欧盟「人工智能法案」的通过

第二,与美国不同的是,欧洲通过《人工智能法案》这一综合性法典构建了统一的人工智能治理框架,试图通过风险等级划分对不同场景下的人工智能应用进行集中治理。具体来说,适用于“所有在欧盟内投放市场或投入使用的人工智能系统”的《人工智能法案》要求对除军事之外的所有应用场景中的人工智能系统进行风险分级,按照“不可接受风险”“高风险”“有限风险”“低风险”四类进行统一的分类管理。例如,《人工智能法案》对“不可接受风险”分级涵盖的“使用潜意识、操纵性、欺骗性手段扭曲用户行为”“根据社会行为或个人特征进行群体分类”“通过无针对性的面部图像抓取构建面部识别数据库”“利用个人特征进行犯罪风险的评估和预测”“在工作场所和教育机构进行情绪识别”等多个使用场景下的全部人工智能应用采取了“一刀切”的明确禁止。不仅如此,为了确保这种基于风险等级的人工智能治理框架有效运转,《人工智能法案》还要求在欧盟委员会下新设欧盟人工智能办公室,作为专职机构集中管理和监督各成员国主管机构对法案的执行。

治理手段的差异

治理手段是落实人工智能治理的具体方法。出于重创新和重安全的差异,美国主张通过相对宽松的“软法”对人工智能进行治理,欧洲则主张通过“硬法”管理人工智能的潜在风险。

具体来说,根据《维护美国人工智能领先地位行政令》的要求,白宫管理和预算办公室、科学和技术政策办公室、国内政策委员会、国家经济委员会在2020年联合发布《人工智能应用规范指南》。指南不但明确要求“为了加强美国在人工智能领域的创新优势,各主管部门应确保美国企业未受到美国监管制度的不利影响”,还提出“欧洲及美国盟友应避免采用过度干预、扼杀创新的人工智能监管方式”。受此影响,美国在联邦政府层面的人工智能治理手段以行政命令、白皮书、政策指南等不具备强制性的“软法”为主,倾向于通过行业准则、企业自治等市场化的方式控制人工智能风险。只有加利福尼亚、伊利诺伊、印第安纳、康涅狄格、得克萨斯等少部分地区通过州内立法对人工智能的隐私保护、透明度等问题提出了明确要求。

反观欧洲,《人工智能法案》仅对“有限风险”“低风险”的人工智能系统采取了与美国类似的市场化治理手段,对于包括ChatGpt在内的“高风险”和“不可接受风险”人工智能系统采取了严格的监管和限制措施。法案不但给出了实施所有条款的时间表,还规定对违反人工智能系统禁止条款的企业处以最高3500万欧元或全球年营业总额7%的罚款;对违反其他合规条款的企业处以最高1500万欧元或全球年营业总额3%的罚款,具有明显的强监管色彩。


三、美、欧人工智能治理分歧的影响


人工智能作为人类发展的新领域,既给世界带来了巨大机遇,也带来了难以预知的各种风险和复杂挑战。在此背景下,美国和欧洲在人工智能治理理念、治理原则、治理模式、治理手段等方面的差异与分歧客观上扩大了全球人工智能治理的碎片化程度,提高了国际合作的协调成本,对人工智能的技术发展和风险管控均有影响。但与此同时,美、欧人工智能治理的分歧也说明了人工智能治理路径的多样性,为不同国家根据自身国情选择不同的人工智能治理政策提供了重要借鉴。

第一,从技术发展的角度来看,美、欧人工智能治理的分歧一定程度上滞缓了人工智能技术创新和应用普及的速度。虽然在社会、经济、法律等治理系统难以追上技术系统演进速度的情况下,是否应该限制人工智能发展的问题仍存争议,但美、欧人工智能治理的分歧在事实上减缓了人工智能技术在全球范围内的发展速度。其一,技术创新方面。美国和欧洲治理理念和治理原则上的差异导致美欧贸易和技术委员会(TTC)“避免人工智能风险管理框架分歧”的设想难以落地,提高了美欧双方在人工智能领域开展技术合作的难度。特别是欧洲《人工智能法案》专门针对引领当前人工智能技术浪潮的生成式人工智能进行了重点规制,要求相关通用基础模型的提供者接受全生命周期的外部监管,确保模型满足可预测性、可解释性、可纠正性、最小化资源使用等要求,一定程度上限制了人工智能技术的创新速度。其二,应用普及方面。欧洲更为严格的“强监管模式”在限制人工智能基础创新的同时,还显著提高了欧洲企业人工智能技术的使用成本。根据欧洲智库“数据创新中心”(Center for Data Innovation)的统计,到2025年,《人工智能法案》的实施将导致欧洲企业为使用人工智能额外支付约109亿欧元的成本,降低欧洲约20%的人工智能相关投资。不仅如此,美国、欧洲等世界主要经济体人工智能政策的碎片化还会提高企业跨国经营的合规成本,最终减缓人工智能应用在欧洲乃至世界的扩张步伐。

第二,从风险治理的角度来看,美国和欧洲的分歧提高了人工智能国际治理的协调难度,扩大了人工智能的潜在风险。人工智能作为颠覆性技术,具有低应用知识门槛、强自主学习能力、多中心化应用等技术和经济特征。这些特征导致人工智能系统的滥用、误用问题很有可能引发社会、经济、军事等领域的重大安全风险,通用人工智能脱离人类控制甚至还会对人类生存构成威胁。为了降低这些潜在风险,世界各国需要通过对话与合作凝聚共识,共同构建开放、公正、有效的治理机制。但是,美国和欧洲有关人工智能治理的分歧导致双方很难就人工智能的国际技术标准、风险评估体系、法律规章制度等实际问题达成有效共识,极大地增加了双方实现“跨大西洋技术治理对齐”的难度,加剧了人工智能国际治理体系的碎片化特征。在此背景下,无论是联合国、经合组织还是七国集团等多边框架下的人工智能治理国际合作的进展都仅限于国际倡议、指导原则或自愿行为准则,尚未在建立人工智能国际治理机制的问题上取得实质性突破。受此影响,人工智能技术全球性的潜在风险很难得到有效控制,单一国家或地区人工智能风险治理的效果也将大打折扣。

第三,从尊重各国政策和实践差异性的角度来看,美国和欧洲人工智能治理模式的差异为其他国家的人工智能治理方案提供了多样性的选择。虽然出于推动技术发展、加强风险监管的目的,人类亟待形成具有广泛共识的人工智能治理框架。但是这一框架需要以相互尊重、平等互利为前提,各国无论大小、强弱,无论社会制度如何,都有平等发展和利用人工智能的权利。事实上,既有研究已经证明,世界不同国家和地区不同的技术发展水平、经济和政治制度、法律和政策环境甚至人口结构和文化价值观都会影响当地公众对于人工智能的接受程度和治理偏好。因此,只有在尊重差异的基础上,建立广泛对话,寻找共同价值,才能真正实现“以人为本”的人工智能国际治理。美国和欧洲作为中国之外人工智能最发达的地区,并未在人工智能治理问题上达成一致,反而为其他国家寻求符合自身利益和价值的人工智能“发展和安全的平衡点”提供了更多机会。特别是欧洲在人工智能技术创新整体落后于美国的情况下,通过规则和治理模式的创新积极维护自身利益,为更多发展中国家和人工智能欠发达地区提供了参考和借鉴。


四、对中国的启示


综合前文分析来看,面对人工智能技术的跃迁式发展,美国和欧洲选择了有所不同的人工智能治理道路,双方在治理理念、治理原则、治理模式、治理手段等各方面的差异对全球人工智能的技术发展和风险管控产生了深远影响,为世界各国的人工智能治理实践提供了更多选择。对于中国来说,美欧人工智能治理的分歧及其影响至少可以提供以下三方面的启示。

中国人工智能的运用

第一,人工智能治理不是单纯的技术问题,中国需要结合自身国情,加快构建“以我为主”的人工智能治理体系。无论是美国根据自身在人工智能领域的科技创新优势,选择基于应用场景、更加重视发展的“弱监管”模式,还是欧洲延续自身数字主权战略,选择基于风险划分、更加重视安全的“强监管”模式,双方的人工智能治理路径始终服务于国家和地区利益。事实上,中国早在2018年就已经提出,人工智能是引领本轮科技革命和产业变革的战略性技术,加快发展新一代人工智能是赢得全球科技竞争主动权的重要战略抓手,是推动中国科技跨越发展、产业优化升级、生产力整体跃升的重要战略资源。对此,中国可以根据自身人工智能领域“领先的追赶者”定位,综合考虑自身数据基础和应用场景等方面的优势、基础算法和硬件设备等方面的不足,在美、欧两种治理体系之外,积极探索立足中国人工智能产业实际需要、兼顾发展和安全需求的中国式人工智能治理模式。

第二,美国及其盟友尚未就人工智能治理完成对齐,中国可以围绕人工智能问题与美、欧双方展开积极对话。在美国对华展开战略竞争,重点在科技领域联合盟友进行“小院高墙”对华围堵的背景下,人工智能是中国可以与美及其盟友进行对话的重要议题。其一,加强中美人工智能对话。人工智能作为人类发展的新领域,是中美之间存在共同利益和对话空间的重要议题。鉴于中美作为全球人工智能发展最迅速的国家,在算力、算法、数据三大人工智能核心要素上互有长短,双方在人工智能技术研发和治理领域的互补性甚至超过欧洲、日本等美国传统盟友。中国可以加快落实两国领导人2023年旧金山会晤中达成的建立中美人工智能政府间对话机制的共识,通过对话管控分歧、推动新兴领域的中美合作。其二,加强中欧人工智能对话。由于欧洲和美国在人工智能安全问题上的立场和关切有所不同,中国还可以根据自身发展需要,与欧洲围绕风险等级测试评估体系、伦理规范准则、法律和规章制度等人工智能风险治理议题展开对话,共同推动形成各国广泛参与、协商一致的人工智能国际治理框架。

第三,有关全球人工智能监管标准与规则主导权的竞争日趋激烈,中国可以通过开展面向发展中国家的国际合作与援助,增强发展中国家在人工智能全球治理中的代表性和发言权。美国和欧洲在人工智能治理问题上的分歧不但加剧了人工智能国际治理方案碎片化和行动力缺失的现实困境,双方在技术创新和风险治理方面的快速布局也进一步扩大了发展中国家与发达国家之间的“智能鸿沟”和“治理能力差距”。中国作为发展中国家的代表,应该践行《全球人工智能治理倡议》,依托联合国大会最新通过的“加强人工智能能力建设国际合作决议”,鼓励全球共同推动人工智能健康发展,共享人工智能知识成果,开源人工智能技术,积极推动发展中国家之间的人工智能合作,确保各国人工智能发展与治理的权利平等、机会平等、规则平等,最终构建更加开放、公正、有效的人工智能国际治理机制。

因微信格式限制,注释及参考文献从略。如需全文,请点击左下“阅读原文“浏览全刊。

关 于 我 们



清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。

新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG

来源 | 本文转载自“湖北社会科学 ”,点击“阅读原文”获取更多内容

内容中包含的图片若涉及版权问题,请及时与我们联系删除