点击蓝字

关注我们

海外智库观察

目前,多模态大模型逐渐成为前沿人工智能发展的主流技术范式。本期选取的三篇文章讨论多模态大模型带来的机遇与风险。其中,哈佛大学肯尼迪政府学院的贝尔弗科学与国际事务中心探讨了多模态AI在危机管理中的应用;世界经济论坛的文章主要关注多模态大模型加剧的“深度伪造”等虚假信息问题;美国企业研究所则以生成式AI在儿童性虐待材中的滥用案例为警示,呼吁科技公司和政府加强监管和法律责任,以保护弱势群体。

贝尔弗科学与国际事务中心

Belfer Center for Science and International Affairs

多模态人工智能如何重塑全球危机应对

2024年6月3日,哈佛大学肯尼迪政府学院下属贝尔弗科学与国际事务中心发布了麦肯锡斯坦福办事处高级合伙人、麦肯锡人工智能QuantumBlack的全球联席负责人Ben Ellencweig等人撰写的文章《多模态人工智能如何重塑全球危机应对(How Multimodal AI Could Retool Global Crisis Response)》。文章表明,随着政府领导人应对日益严重和复杂的灾难,多模态人工智能成为有效、协调危机应对的有前途的工具。多模式人工智能可用于预警系统和场景模拟,如数据收集和处理、事件预测、情景模拟、结果解释和行动计划。多模态人工智能可以在危机来临之前保障生命和生计,如预测模型、公共警报系统、个性化学习、反馈和指导。多模式人工智能可以帮助应急管理专业人员做出决策、可视化数据并分析公众情绪。多模式人工智能还可以通过社区恢复工作和后记分析来支持灾难恢复工作。

首先,作者以一个设想的未来场景为例,阐释了多模态人工智能的四个阶段。当飓风形成时,其强度和登陆时间每小时在桌面级计算机上重新计算。飓风的影响性质,包括可能发生的不相关危机和次生效应,通过具有物业级粒度的城市规模数字孪生体在多种情景下进行建模。这些模拟的结果是明确的基于触发的行动计划,这些计划经过人类在环机制的验证,并发送给应急响应人员、社区领导、政府机构,甚至可能包括受影响地区的居民。社区领导可以访问工具,以了解预期情况、可利用的资源和可能产生最大影响的行动。房主收到的建议包括如何保护资产、避免诈骗和获取灾后支持。虚假信息传播则通过基于事实的自动化外展来对抗。首先是预防阶段。在此阶段,多模态AI可以通过早期预警系统和情景模拟发挥作用。首先,欧洲中期天气预报中心因其长期的准确性而闻名,由超级计算机提供动力,每天更新四次。数据收集的改进、更高分辨率的观测和精确的数据分析使预报模型随着时间的推移变得更加准确。新型的AI预测模型,例如Google DeepMind的GraphCast可以基于几十年的历史天气数据训练,在不到一分钟的时间内提供同样准确的预测,且全部在桌面计算机上完成。虽然可能有局限性,例如识别化学品泄漏和其他非常规灾难的能力下降,但AI驱动的预测正在证明是有价值的工具。其次,通过扫描准确的实时数据和响应集群,并使不同系统之间建立联系,生成式AI(gen AI)允许更准确的早期预警系统、有针对性的通信和自适应消息传递,为应急管理人员赢得宝贵时间。这些灾难预警适用于各种危机,从自然(飓风、地震)和流行病(大流行)灾难到安全(恐怖主义或国家支持的攻击)和人为威胁。

随后,作者阐释了其余的三个阶段。第二是准备阶段,多模态AI在危机发生前可以保障生命和生计。首先,其为危机做好准备的能力可以改变准备工作的关键方面。生成AI具有提高危机准备工作的潜力,包括更好的资源和人员分配以及公众提前预警。AI通常会执行超出人类能力的工作,例如在飓风疏散期间识别不可用的道路。这种可见性使应急管理人员能够提高动员和响应能力,做出更好的决策,并在各种危机情况下提高效率。此外,生成AI可以在灾难前支持公众,引导他们到最近的避难所、分发中心和疏散路线,利用今天可用的大量地理空间数据。第三阶段是响应。在响应阶段,多模态AI可以帮助应急管理专业人员做出决策、可视化数据和分析公众情绪。首先,生成AI可以使用数据,例如人口特征、基础设施统计和实时天气数据,帮助受灾者找到避难所和资源。其次,AI驱动的通信工具可以迅速传播关键信息,覆盖更广泛的受众(包括多种语言),并提供有关安全措施、疏散程序和资源可用性的指导。工具如聊天机器人和虚拟助手可以通过提供准确、实时的回答来减轻人类响应者的负担。第四个是恢复阶段。在恢复阶段,多模态AI还可以通过以下行动支持灾后恢复工作。首先,生成AI可以定位受影响严重的社区,向他们提供实时信息,并传达基本的急救和健康知识——帮助在恢复时期促进社区善意。其次,AI可以分析社区的需求和可用资源,以优化其分配。为了防止偏见和资源短缺,它可以考虑诸如人口密度、经济需求和关键健康与人类服务的交付等客观、预定因素。最后,生成AI可以用于分析响应和恢复工作的有效性,并调整应急管理协议。通过分析大量数据,包括响应时间、事件报告、社交媒体数据、资源分配和疏散计划,生成AI可以将额外的实时数据整合到其预测建模和分析中。这可以帮助应急管理领导者找出改进未来危机管理策略的方法。

最后,作者指出,通过将多模态AI工具整合到危机管理系统和协议中,公共当局还可以受益于及时性和准确性的改进、对选民的通信以及初始响应的有效性,但他们必须确保理解伦理影响和潜在风险。第一,AI算法是基于数据训练的,而数据可能存在偏见,复制其来源的偏见,或将偏见信息呈现为中立。因此,应急管理领导者应考虑如何设计系统,以防止产生偏见的结果、不准确的预测和虚假警报。第二,AI早期预警系统从各种信息源获取数据,包括公用事业使用和应急响应电话。社区参与可以确保数据收集解决隐私、个人身份信息披露或历史歧视问题。例如,必须特别注意监控过程,这可能会导致对历史上被边缘化人群受到额外监视或审查。第三,当AI预测某个地区可能发生危机时,随后的决策可能会移动市场或导致资源分配显著变化。因为这些决策可能会影响关键市场元素,这些模型需要澄清其分析中的确定性水平并验证预测。最后,AI算法分析来自广泛数据的数据,但这个范围可能过于宽泛,无法为应急响应者训练创建模拟和潜在的灾难场景。应急管理人员可能希望确保所使用的数据足够具体,以准确代表其所在地点的潜在灾难场景,包括地理、历史趋势、气候变化和人口动态等因素。但总的来看,多模态AI的负责任部署有潜力通过加快决策支持、实时指导和行政功能来重塑危机响应。这些干预措施可以帮助响应者协调努力,减轻多重危机的影响,并实现更快、更有弹性的社区恢复。


世界经济论坛

World Economic Forum, WEF

加强国际合作是解决“虚假信息问题”的关键

2024年6月14日,世界经济论坛发布了其执行委员会成员Cathy Li和全球数字安全联盟项目负责人Agustina Callegari共同撰写的文章《阻止人工智能虚假信息:保护数字世界的真相(Stopping AI disinformation: Protecting truth in the digital world)》。文章强调了“深度伪造”问题对政治界和公众对政府信任的负面影响,并建议应当鼓励多方协同合作,以应对人工智能驱动的虚假信息和误导信息所带来的多方面挑战。
 
首先,作者指出, 以多模态大模型为代表的AI技术给信息完整性领域带来了独特的挑战。鉴于多模态大模型可以生成逼真的虚假文本、图像、音频和视频,这增加了民众辨别真实内容与合成作品的难度,为不法分子传播虚假信息创造了可乘之机,其生成的虚假信息所带来的后果影响深远,很可能侵蚀社会的基本结构。因为首先,如世界经济论坛的《2024年全球风险报告》指出,在未来几年内,虚假信息和误导性信息将成为严重威胁,并可能导致国内宣传和审查领域的制度更加严格其次,在政治界,深度伪造和AI生成内容的快速传播将使选民越来越难以辨别真假,可能影响选民行为、破坏民主进程,并带来严重的风险其不仅可能影响选举结果,还可能导致政府的公信力减弱,进而激化社会矛盾、甚至引发暴力事件第三,虚假信息活动可能被用以生成针对特定人群的有害内容。例如,涉及性别矛盾的虚假信息不仅将加深公众的刻板印象、激化厌女情绪,还将进一步边缘化弱势群体,从而导致更严重的社会分裂问题
 
随后,为管理虚假信息、防止其泛滥并带来社会危害,作者建议多方治理主体应协同参与治理,学习生成式人工智能行业通过对AI生成内容自动添加水印的自发行为解决虚假内容所有权的方法。具体而言,开发者和相关组织必须首先实施强有力的保障措施、增强透明度措施并构建责任框架,以减少与人工智能相关的风险,开发者可以建立全面的系统以确保人工智能被道德地和负责任地部署,从而培养公众对AI的信任。其次,应当增强公众的综合素养和批判性思维培养,加大公众对媒体发布内容进行辩证看待的相关教育,从而赋予并提高公民个体在数字信息复杂环境中处理问题的个人能力。第三,学校、图书馆和社区组织在推广人工智能应用技能方面发挥着至关重要的作用,其应当提供资源和培训计划,帮助个人发展批判评估信息来源的能力,辨别虚假信息和事实内容,并做出明智的决策。
 
最后,作者强调,促进包括政策制定者、科技公司、研究人员和民间组织在内的利益相关者之间的合作,对有效解决人工智能驱动的虚假信息和误导信息所带来的多方面挑战至关重要对此,作者认为世界经济论坛推出的两大倡议应当得到支持:其一,为人工智能治理联盟,该联盟汇集了全球专家和组织,致力于解决人工智能所面临的复杂挑战,包括误导或有害内容的生成以及知识产权的侵犯。通过合作,该联盟将制定更加务实的建议,确保人工智能在开发和部署过程中负责任、道德,并对人类社会带来最大的利益。其二,为全球数字安全联盟,该倡议汇集了科技公司、政府官员、民间社会和国际组织,通过加强交流治理经验、协调行动,从而减少网络对公众的伤害并打击虚假信息。作者还强调,随着人工智能对我们所生活世界的持续改变,推进数字安全和信息完整性方法的重要性愈发凸显。通过加强合作、创新和监管,我们可以发挥人工智能的好处,同时防范其风险,确保技术未来能够提升公众信任和民主价值观。

美国企业研究所

American Enterprise Institute,AEI

生成式人工智能与儿童性虐待内容:早期警示和科技公司的承诺

2024年6月3日,美国企业研究所发布了技术政策研究非常驻高级研究员Clay Calvert撰写的文章《生成式人工智能与儿童性虐待内容:早期警示和科技公司的承诺(Generative AI and Child Sexual Abuse Material: An Early CautionaryLesson and a Pledge from Tech Companies)》。文章讨论了Gen AI被用来创建未成年人的色情图像的案例:Anderegg案,并指出,该案不仅突显了在Gen AI被滥用和误用后进行刑事起诉的必要性,而且还表明科技公司必须在问题出现之前主动采取措施以降低其发生的可能性,同时不损害这项新兴技术的巨大益处。正如AEI成员John Bailey在关于GenAI在美国未来发展的报告时写道,“必须创造一个环境,使AI创新能够蓬勃发展,同时还要确保安全性和问责制。”

首先,作者阐述了Anderegg案的背景。上个月,司法部的儿童剥削和淫秽内容部门公布了一份由联邦大陪审团对42岁的威斯康星州霍尔门居民Steven Anderegg提出的四项指控,即Anderegg涉嫌制作、分发和拥有AI生成的未成年人从事性行为的图像,以及向未成年人传播类似的AI生成的色情图像有关的刑事指控。据称是Anderegg“使用Stability AI公司生产的名为Stable Diffusion的GenAI模型”创建的,而政府的简报描述这“数百甚至上千张这样的图像非常逼真”。虽然宪法第一修正案通常保护言论免受政府审查,但美国最高法院已明确表示,制作、分发和拥有儿童色情制品不受美国宪法保护。在术语方面,司法部指出,虽然“儿童色情制品”代表一个法律概念,但“儿童性虐待材料(Child Sexual Abuse Material,CSAM)”这个术语更受青睐,因为它更好地反映了图像和视频中描绘的虐待行为以及对儿童造成的创伤。


其次,作者指出,正如《华盛顿邮报》报道,针对Anderegg的案件“可能是首次将创建儿童性虐待材料的联邦指控应用于完全通过AI生成的图像”。然而,起诉书明确表示,那些创建Gen AI CSAM的人将理所当然地受到与其他CSAM制作者相同的起诉。Anderegg起诉书中引用的一项联邦儿童色情法规明确指出,“本节下的任何罪行的必要构成要素并不要求所描绘的未成年人实际存在。”。此外,该法规允许起诉任何种类其中描绘了未成年人从事性行为的视觉描绘,包括像卡通这样的图像。鉴于这一法定权力,联邦调查局断言使用Gen AI工具创建的CSAM是非法的,这一观点也得到了国土安全部的呼应。事实上,在宣布逮捕Anderegg时,司法部刑事司司长Nicole M. Argentieri表示,使用AI制作未成年人的色情描绘是非法的,司法部将毫不犹豫地追究那些拥有、制作或分发AI生成的儿童性虐待材料的人的责任。可悲的是,滥用Gen AI工具制作像Anderegg案中那样的CSAM并不令人意外,如斯坦福互联网观察站(Stanford InternetObservatory,SIO)的研究表明,在一个名为LAION-5B的开放文本到图像模型训练数据集中存在重复出现的相同CSAM实例,并且该“数据集包括从广泛来源收集的已知CSAM,包括主流社交媒体网站和流行的成人视频网站”。该数据集“用于训练流行的AI文本到图像生成模型,如Stable Diffusion”。如Anderegg声称,只要他在Stable Diffusion上输入文本提示,就可以以“根据他的参数生成图像”。


最后,作者指出,这就是Gen AI公司既有道德责任又有法律责任的地方,即密切监控和审查他们使用的训练集中是否存在CSAM,并在发现CSAM时立即将其清除。4月,《福布斯》报道称,Gen AI领域的领导者承诺通过在其工具中添加安全设计功能来做到这一点,这是对抗如此令人鄙视的内容的一个至关重要的可喜进步。

原文链接:

[1]https://www.weforum.org/agenda/2024/06/ai-combat-online-misinformation-disinformation/

[2]https://www.aei.org/technology-and-innovation/generative-ai-and-child-sexual-abuse-material-an-early-cautionary-lesson-and-a-pledge-from-tech-companies/

[3]https://www.belfercenter.org/publication/how-multimodal-ai-could-retool-global-crisis-response

文章检索:周韫斐

编译:边洁、朱奕霏、杨雨虹

审核:王净宇

排版:须嘉慧

终审:梁正、鲁俊群

清华大学人工智能国际治理研究院编
上述信息均根据原文内容整理,谨供读者参考,不代表本机构立场和观点

往期回顾

海外智库丨人工智能国际治理观察第242期

海外智库丨人工智能国际治理观察第241期

海外智库丨人工智能国际治理观察第240期


关于我们

清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。

新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG