点击蓝字
关注我们
海外智库观察
本期海外智库聚焦人工智能治理中的安全与竞争议题。布鲁金斯学会发布了Tom Wheeler和Blair Levin合著的文章《有了人工智能,我们既需要竞争,也需要安全》,强调了安全与竞争的共存在人工智能领域的重要性 。作者建议通过多方参与制定可执行的安全标准,避免反竞争联盟的出现。美国企业研究所发布了Bronwyn Howell的文章《人工智能监管竞争:新兴行业的关键》,指出在新兴行业中,竞争有助于筛选最佳的监管安排,推动技术创新与社会进步。两篇文章从不同角度探讨了人工智能治理的核心问题,呼吁在制定AI政策时兼顾安全与竞争,以促进技术的健康发展和社会福祉。
布鲁金斯学会
Brookings Institute
人工智能的未来应当建立在安全和竞争之上
2024年7月8日,布鲁金斯学会发布了其治理研究客座研究员Tom Wheeler和都市研究所客座高级研究员Blair Levin共同撰写的文章《有了人工智能,我们既需要竞争,也需要安全(With AI, we need both competition and safety)》。文章指出,人工智能安全合作存在反竞争联盟等挑战,并建议将人工智能的未来建立在安全和竞争之上,政策制定者、技术人员在内的广泛主体共同参与人工智能安全治理,达成一个可执行的、适用于所有主体的安全标准协议。
首先,作者指出,由于只有技术研发者才深谙技术风险,政策制定者应当鼓励最了解技术发展状态的行为体制定人工智能(Artificial Intelligence, AI)的标准、评估和防范机制,而这一举措亟需各方主体的参与,并以一个可执行的、适用于全部主体的人工智能安全标准为着力点。当前,尽管已经出台的《人工智能伦理罗马倡议(Rome Call for AI Ethics)》被视为人工智能行为准则的典范,但该准则的本质为产业界进行自我监管的“自愿”行为,其存在两个根本问题:其一,准则的制定和应用受到最薄弱环节的限制,安全自愿的安全治理方法难以解决网络空间中的广泛问题,因为治理链条中的薄弱环节会破坏整体安全防御机制,这意味着人工智能生态系统中的所有环节都需要达到保护所有人的最低标准。其二,自愿行为本身意味着缺乏强制执行力。
其次,为克服当前自愿准则固有的缺陷,作者建议构建一个包含三要素的人工智能安全模型。第一,识别当前人工智能存在的问题并召集相关的公司和受到影响的公民社会来制定标准。第二,这一安全模型必须遵循良性循环,对达到基准标准以及超过基准标准的企业提供市场奖励,从而达到各个公司在自愿的基础上维护网络安全的目的。第三,应该对合规活动进行持续监督,依靠包括政府在内的多个利益相关者之间的合作以提升监管透明度,从而完成审计和执行环节。这一新的、人工智能公司须承担“保护用户”责任的人工智能安全标准并非空穴来风,早在美国殖民时期的“注意义务”原则就认为商品或服务的提供者有义务预见并减轻可能造成的潜在伤害,在历史上这一原则被不断应用于一系列不断涌现的技术创新之中。
此外,作者还指出,由于AI并非是一种线性进步的技术,因而新的人工智能安全标准需要摆脱技术监管的旧传统,这也意味着政府更应该扮演AI安全标准的监督者而非AI实践的独裁者的角色。既有的产业界合作服务于公共利益,并且产业界与政府合作构建的、可执行的准则或者标准的案例也可以为AI监管提供了参考,比如美国医学协会为医生制定了标准,而不遵守这些标准成为法律诉讼的基础,法院判定是否遵守这些标准是确定责任的关键因素;全国专业工程师协会的《工程师伦理守则》指出工程师需要将公共安全、健康和福利置于首位,并且仅在其专业能力范围内提供服务,该守则可通过纪律处分、民事和刑事责任以及州监督来执行;金融业监管局通过证券交易委员会监督的行业制定的准则来监管金融行业的各个方面等。
最后,作者强调,多方共同参与的人工智能安全治理应当尽快落地,比如可以通过政府对明确服务于公众利益的产业合作给予支持以实现治理目标。随着当前联邦贸易委员会和美国司法部对AI公司之间以及它们与其他公司之间的某些交易和合作是否违反反垄断法的调查的不断推进,提高AI的安全性无可厚非,但AI安全性的提高不应以牺牲市场竞争为代价,而是应该继续努力制定标准和解决安全问题,创造兼具竞争和安全的人工智能市场。
美国企业研究所
American Enterprise Institute, AEI
人工智能监管竞争:新兴行业的关键
2024年7月1日,美国企业研究所发布了客座高级研究员Bronwyn Howell撰写的文章《人工智能监管竞争:新兴行业的关键(Competition in AI Regulation: Essential for an Emerging Industry)》。文章指出了人工智能监管竞争对这一新兴行业的关键影响。
首先,作者指出了竞争在生活中的诸多益处。竞争可以导致价格下降、商品和服务质量提高、更多的创新和更大的多样性。当公司为争夺员工而竞争时,他们可能还会改善工作条件并增加报酬。健康的竞争也可以促进企业之间的良好关系,带来诸如网络和共享内容等互惠互利。在个人层面,竞争可以驱使人们在更高水平上表现并更快地学习,还可以教会人们如何管理紧张情绪并尽最大努力。在竞争激烈的市场中,创新会导致不同产品和服务的发展。那些提供消费者偏好的功能组合的产品和服务能够存活下来,并成为进一步发展和创新的基础,这包括其他人模仿成功功能的适应,那些无法达到标准或不愿或无法适应的产品将停止生产。因此,竞争也推动了社会规范和制度的发展和创新。此外,这种制度竞争和进化在行业治理和监管安排中很明显。当一个行业是新行业时,最优的行业治理安排对于所有相关方来说都是未知的。企业、市场和政府必须进行实验,以做出最有效的安排,如当多个不同的变体竞争时,竞争可以揭示了哪些安排将最有利于社会的发展。在宽带市场规则的竞争中,欧盟和美国之间的竞争尤为明显:欧盟严格的开放接入和网络中立规则导致下一代固定线路技术的投资比在规则较为宽松的美国要少且晚。
其次,作者指出,在任何新兴行业的起步阶段,真正的风险是强大的治理实体可能会利用其强制权力来关闭治理安排中的竞争。正如强大的商业实体可能会挤掉其产品和服务的竞争对手一样。在这些权力的支持下,能力较差的变体可以存活并占据主导地位,而社会无法像最佳安排能够实现的那样受益。随着政府、市场和企业努力应对新兴的人工智能产品和服务,并寻找组织企业、供应链和(通过法规)市场的最佳方式,这些问题尤为值得关注。这尤其适用于包括大型语言模型如ChatGPT和图像生成器如Custom GPT在内的新型生成式预训练变换器(GPTs)。最糟糕的结果将是快速收敛到一套全球统一的标准和法规来治理所有形式的新技术。这样的安排将所有的AI监管置于一个篮子中,而远未明确行业的轨迹究竟指向何处。风险在于,如果这些安排不是最优的,新的行业将被切断(或其发展受到紧密限制,减少了创新的激励并将新产品和服务推向市场),在可预见的未来都是如此。而这正是欧盟《人工智能法案》可能带来的结果。通过“提前行动”并在其他司法管辖区之前制定法规,有些人希望通过“布鲁塞尔效应”,这些法规将成为AI未来的全球标准。也就是说,虽然欧盟在开发和销售其自身的AI方面面临困难,但通过市场或法定行为,其规则将被纳入其他司法管辖区的市场行为和法律中。Meta已经宣布,由于欧洲数据保护法禁止使用欧洲数据进行训练,其AI聊天助手将不会在欧洲推出,可能会导致产品质量下降。苹果也做出了类似回应。
最后,作者指出,幸而美国采取了较少规定性的做法。国家标准与技术研究院的指南对于私营部门的公司并不是强制性的。它们与由多利益相关者团体如前沿模型论坛和人工智能联盟开发的自愿指南竞争,更不用说七国集团的广岛AI进程等国际倡议了。这种行业特定的自我监管,公司可以选择遵守这些标准中的一个或多个,正是促进规则制定竞争的方式,将导致最佳安排的胜出。随着行业的成熟,可能会变得清楚某一套规则优于其他规则。如果有必要的话,这可以成为在州和联邦法律中形式化的基础。
原文链接:
[1]https://www.brookings.edu/articles/with-ai-we-need-both-competition-and-safety/
[2]https://www.aei.org/technology-and-innovation/competition-in-ai-regulation-essential-for-an-emerging-industry/
文章检索:周韫斐
编译:边洁、朱奕霏、杨雨虹
审核:王净宇
排版:夏冉
终审:梁正、鲁俊群
往期回顾
关于我们
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG