点击蓝字
关注我们
海外智库观察
本期智库文章聚焦于人工智能治理的不同视角。在人工智能迅猛发展的背景下,各国政府和机构纷纷探讨如何有效监管这一新兴技术。本文选取了两篇文章,其中,美国企业研究所发布的文章《人工智能监管增加了确定性——但为了谁?(AI Regulation Increases Certainty–but for Whom?)》探讨了政府监管AI的必要性与挑战,强调在充分评估后进行监管以避免扼杀创新的重要性。而国际治理创新中心发布《我们需要一种以工人为中心的人工智能政策方法》,则吁从工人福祉出发制定AI政策,提倡公平、公正的发展路径,这两篇文章为我们理解AI政策的多样化提供了深刻见解。
美国企业研究所
American Enterprise Institute
人工智能监管不应以约束技术发展为目的
2024年6月27日,美国企业研究所发布了其客座高级研究员Bronwyn Howell撰写的文章《人工智能监管增加了确定性——但为了谁?(AI Regulation Increases Certainty–but for Whom?)》。文章指出,国家行为体在出台监管政策时往往面临更复杂的情形,政策制定者需要在充分评估、测试了人工智能技术可能带来的危害后再制定相关政策,从而避免将人工智能的发展扼杀在摇篮内,并解释了降低人工智能不确定性的必要性,以及实施人工智能监管的原因。
首先,作者强调,建立制度、颁布法律以及由此产生的社会契约具有重要意义。如果缺少了社会契约,世界将陷入霍布斯式的没有利维坦的状态中,民众将长时间地处于孤独、贫穷、野蛮的自然状态当中。建立社会契约的本质在于增强确定性,约翰·洛克认为,由于政府比个体更有能力管理自然状态,为了免受自然状态下的风险与不利因素的影响,公民愿意牺牲自己的一些权利。以缴纳税款为例,税法和相关法规条例能够使个体和公司在一定程度上确定其强制性贡献的范围和性质,尽管这种强制性义务的形式和数量仍存在较大的讨论空间。然而,自然状态存在的问题在于,由于公民与自然互动下会产生更为混乱、复杂的现实状态,公民其自身难以明晰可能威胁其生存的全部挑战,而诸如税法等法律制度的存在则是为了明确某些限度以最大程度地减少不确定性。基于此,对于科技巨头主动呼吁全球政府监管人工智能(Artificial Intelligence, AI)的应用开发和部署所引发的各种舆论,比如,开发这些新技术的公司在获得先发优势后可能希望通过监管来提高竞争对手进入市场的门槛,或是认为政府干预只是暂时减少了AI技术开发和部署环境的复杂性和不确定性。对此,作者指出,由于全球消费者偏好、法律环境方面存在出多差异,全球范围内的AI应用开发面临多重不确定性,包括AI监管在内的政府间合作恰好能够减少这些不确定性,因而政府监管AI是应有之义。
其次,作者指出,尽管政府对AI进行监管存在必要性和迫切性,但其仍然面临着一些挑战。当任一技术进入市场时,其会产生大量的不确定性,甚至消费者、开发公司自身都难以准确把握技术的发展方向,因而,在复杂的、动态的AI系统部署在复杂的、动态的环境中,如果没有任何具体的事前控制,很可能会处于霍布斯所设想的混乱的商业自然状态,开发者往往因此寻求国家的保护。而现实中,国家对技术的发展方向的把握甚至略逊于开发者。针对这种挑战,作者建议政策制定者可以首先创造一个具有定义界限的、区别于现实世界的人工“安全空间”,可供开发者测试其技术,让消费者进行探索和体验。
最后,作者强调,在未对新兴技术进行充分完整的了解的情况下对技术进行监管将会限制其发展,在一个复杂的不确定世界中,政策制定者需要开发多样化的AI应用程序并对其进行测试评估。
加拿大国际治理创新中心
Centre for International Governance Innovation,CIGI
我们需要一种以工人为中心的人工智能政策方法
2024年6月24日,国际治理创新中心发布了其高级研究员、学者、技术政策专家和数字权利倡导者Burcu Kilic撰写的《我们需要一种以工人为中心的人工智能政策方法(We Need a Worker-Centric Approach to AI Policy)》。文章指出,上个月美国参议院多数党领袖查克·舒默发布的一份两党“人工智能政策路线图”是在经过数月的高调论坛、听证会以及与专家和利益相关者的讨论后制定的,该路线图为即将出台的人工智能(Artificial Intelligence,AI)立法奠定了基础,涵盖了创新、劳动力影响、高影响应用、选举完整性、隐私与责任、透明度与可解释性、知识产权、人工智能风险和国家安全等问题。
首先,作者指出,技术公司对于数月来推动的轻度监管和增加联邦支出的努力表示欢迎,并且对承诺的320亿美元用于人工智能创新的纳税人资金感到满意。然而,参与的学者和倡导者们对此表示失望。该路线图未能有力地解决人工智能的风险和危害。因为尽管框架简要提到了诸如民权保护、偏见减轻、问责制和信任等问题,但其更强调以技术驱动的创新叙事。这种方法更符合技术公司的利益,而非那些倡导负责任的人工智能生态系统的人。倡导者们回应称已经起草了一份影子报告,以指导为公众利益而进行的有意义的立法努力,并强调需要将公众置于人工智能政策制定的核心。报告重点突出了人工智能监管的11个关键领域,包括种族正义、人工智能问责制、劳动权利、竞争与隐私等,并呼吁立即采取立法行动,实施优先于行业自我监管的可执行法规。但实际上,这份报告对如何监管人工智能没有明确答案。技术公司往往凭借其久经考验的创新叙事,赢得政策论坛和立法者的心智,这种长期存在且备受争议的创新与监管之争极大地影响了美国甚至全球范围内的人工智能政策讨论。例如,这种叙事成功地在促进欧洲创新的名义下淡化了欧盟的人工智能法案。此外,创新论点并不新鲜,各个行业过去都依赖于这一论点:汽车行业反对安全法规,化工行业反对健康和安全规则,社交媒体公司反对保护隐私和数据的努力。这是一种熟悉的、被用来抵制监管策略。
随后,作者指出,这引发了一个重要问题,即为谁创新。技术公司认为,如果立法者能够从个体消费者的角度看待政策,理解人工智能的功利性优势,增加对研发的投资,并允许市场自我调节,那么世界将变得更加创新、高效和对消费者友好。历史上,科技和劳动政策的制定是孤立进行的,受到不同目标和监管框架的指导。近年来,美国的政策重点已经从优先考虑消费者转向强调公民的福祉,包括工人、农民、小企业和社区的福祉。目前,拜登政府继续以“以工人为中心”的策略重新定义其对数字经济的态度,这种转变在反垄断和贸易政策中都很明显,承认了技术公司的垄断力量,并认识到有利于消费者的政策不应损害他们作为工人的利益。因此,需要改变传统的政策制定方法,这种方法通常依赖于行业和政府专家来起草特定行业和技术友好的政策,随后是对公众反馈的时期,但这些反馈往往影响甚微。这些立法提案中的创新友好漏洞使得公司可以轻松自我监管并避免问责,而这些漏洞随后被复制到多个立法倡议中。显然,人工智能政策发展需要一个真正包容的方法,不能指望少数拥有巨大权力和控制未来的技术公司的社会责任。例如,去年,美国编剧协会和代表好莱坞表演者和广播员的美国电影和电视演员协会的高调罢工,突显了工人面临的与人工智能技术相关的挑战及其对创造力和创作者生计的影响。工会和制片厂最终达成协议,包括保护编剧作品并赋予演员对其形象的控制权。这些罢工展示了集体谈判的力量,不仅为争取更高的工资和工作场所保护,而且在塑造人工智能发展方面。“以工人为中心”的政策方法旨在自下而上和自中间向外发展数字经济,将工人置于政策制定的核心。它支持公平公正的政策,促进竞争、可持续发展和全球范围内的公平贸易实践。同样,工人中心的人工智能政策方法将赋予工人权力,民主化人工智能的利益,最小化风险,并促进平等、稳定和繁荣。通过将来自各个背景和经历的工人带到谈判桌上,可以创建一个包容的人工智能政策,促进经济安全和种族与性别平等。
最后,那些长期被系统性排除在外或被忽视的人,如女性、有色人种社区、低技能工人在全球政策讨论中拥有强有力的声音至关重要。工业化将人们聚集在工厂中,催生了新的愿望和民主化其利益的制衡力量,带来了显著的技术变革和制度发展,为共享繁荣铺平了道路。正如弗雷德里克·道格拉斯所说:“权力不做出任何让步,除非有所要求。”进步和正义不是掌权者自愿给予的,而是通过有组织的努力、变革的要求和集体行动实现的。通过将工人置于人工智能政策制定的核心,我们可以确保一个更加公平、公正和繁荣的未来。
原文链接:
[1] https://www.aei.org/technology-and-innovation/ai-regulation-increases-certainty-but-for-whom/
[2] https://www.cigionline.org/articles/we-need-a-worker-centric-approach-to-ai-policy/
文章检索:周韫斐
编译:边洁、朱奕霏、杨雨虹
审核:王净宇
排版:夏冉
终审:梁正、鲁俊群
往期回顾
关于我们
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG