36kr 前天 09:45
「特朗普爱上保洁员」把全网都耍了,连 AI 也被套路,我还能信谁
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

一篇虚构的“特朗普爱上白宫保洁员”短剧新闻在社交平台疯传,引发了广泛关注和讨论。尽管该短剧和相关情节纯属捏造,但从自媒体的初步传播到主流媒体的转载引用,再到海外社交平台的扩散,形成了一个复杂的“出口转内销”信任闭环。文章深入剖析了这一假新闻事件的传播机制,揭示了AI在其中扮演的角色,以及人类的恶意操纵如何与AI的“幻觉”相结合,制造出难以辨别的虚假信息。案例还涉及AI生成内容在商业欺诈、灾难报道等领域的滥用,以及平台内容治理面临的挑战。最终,文章强调在信息过载和AI技术发展的背景下,人类的判断力正面临严峻考验,并警示了未来可能出现的更复杂、更难辨真伪的虚假信息传播。

💡 虚构短剧“特朗普爱上白宫保洁员”的广泛传播,最初由一个自媒体账号发布,后经由《新明日报》等媒体转载,并迅速在海外社交平台扩散,形成了一个“出口转内销”的信任闭环,证明了虚假信息在特定传播链条下能获得广泛认可。

🤖 AI在虚假信息传播中扮演了双重角色:既是“受害者”被假新闻误导,也可能成为“传播者”被用于生成低成本、高传播力的内容。文章指出,AI的“幻觉”问题,在面对以假新闻为基础的判断时,其现有技术手段可能难以有效规制。

🔍 假新闻的成功离不开其具备的“爆款”传播基因:清晰的叙事结构、图文并茂的素材、经过包装的数据以及精准的传播节奏。此外,人类的恶意操纵,特别是利用AI生成具有煽动性、猎奇性内容的特点,是推波助澜的关键因素。

📉 AI生成内容造假产业链日益显现,从冒充商品破损申请退款,到虚构灾难场景消耗同情心,再到利用AI抓取信息生成虚假新闻,其核心在于降低内容生产成本并放大传播效果。这种模式还可能导致AI模型学习并固化虚假信息,形成“谣言螺旋”。

⚖️ 在信息爆炸和AI技术发展的双重压力下,人类的判断力成为辨别真伪的最后一道防线,但偏见、信息茧房和情绪化传播正在侵蚀这一能力。文章警示,未来可能出现比本次事件更离谱、更难辨真伪的虚假信息,需要警惕“狼来了”效应可能造成的真实信息被忽视的恶果。

如果你这几天没被一部叫《特朗普爱上在白宫当保洁的我》的短剧刷屏,恭喜你,你可能是唯一没被骗的人。

光听这部剧的标题就有点像土味爽文,情节设定也足够魔幻:美国总统特朗普爱上了白宫保洁员,还准备抛弃超模妻子梅拉尼娅,迎娶保洁员为第一夫人,属实是「美版甄嬛传 + 白宫恋爱脑」双重 Buff 叠满了。

就这样,各大社交平台一时间全都被这条新闻刷屏。不少知名媒体,还有平时看起来挺有判断力的大 V 们开始纷纷转发,表示这部在海外爆火的短剧三个月狂赚 1.5 亿美元,成了中老年女性新晋的心头好。

但很快事件迎来 180 度的大反转,这部短剧被证实压根不存在,从头到尾都是一个虚假新闻。那么问题来了,一部没人看过的剧,是如何在短短几天内火遍全网的?而 AI 又是如何推波助澜?这背后究竟发生了什么?

一部不存在的海外短剧,是如何骗过了人类和 AI?

如果你以为这只是一场乌龙,那就低估了这次传播的复杂程度。

根据多方溯源,这起假新闻风波最早可以追溯到 7 月 1 日,由一个名为「留学生日报」的自媒体账号发布的一篇文章。而从语言风格与内容逻辑来看,这篇文章有很大可能是由 AI 写作工具辅助生成,再经过人工润色。

但问题在于,虽然它只是一个普通的自媒体,却经常被一些国内的正规媒体转载引用。时间来到 7 月 23 日,新加坡《联合早报》旗下的媒体《新明日报》发布了一篇《中国霸总短剧风吹到美国》的文章。

报道内容可以说是写得有鼻子有眼,特朗普放弃模特老婆梅拉尼娅,要娶一个在白宫打扫卫生的亚裔单亲妈妈当第一夫人,甚至还提到这剧三个月狂揽 1.5 亿美元,中老年女性观众一边骂离谱,一边付费追更。

目前该报道已被删除

考虑到《联合早报》是中文互联网可信度较高的媒体,于是这条新闻又被国内媒体大量转发,各路短视频博主纷纷解读……

一个完美的「出口转内销」信任闭环就此形成。

此外,一堆二创短视频、图文报道也在海外社交平台火速扩散。这部「假短剧」便开始以「真新闻」的姿态,被全世界相信、讨论。每个人都在一本正经地谈论一个根本不存在的东西, 甚至吐槽中美间的审美差异。

直到有媒体实在觉得这事不对劲,开始认真查证。结果发现这部剧在任何海外平台(包括短剧平台 ReelShort、YouTube、TikTok)上毫无踪迹,号称收录全球影视作品的权威数据库 IMDb 亦查无此剧。

此外,国内一些头部短剧出海的厂商高管也纷纷出面辟谣,比如「听花岛」副总裁李元君就表示这类题材根本就不会碰。而撑起整个假新闻的关键证据图,也被一一锤爆。

第一张图,出自美剧《周六夜现场》的讽刺片段,被演员邵逸凡亲自打假。第二张特朗普与亚裔女性的合影,就更是一眼假得不能再假,整张图透着一股AI 塑料感。

图源网络

而如果时间线再往前翻,会发现类似爽文标题早就活跃在社交平台上:《南北战争爆发,林肯三次请我出山》《穿越开局 911,看我如何拯救双子塔》……

这些明显是爽文小说的标题,不知为何就这样一传十,十传百地被包装成了真实存在的海外短剧。

截图自网络

有趣的是,连 AI 都信了这件事。

在事件未被大量媒体正式辟谣前,我试图用多款常用的 AI 工具验证这部短剧的真伪,它信誓旦旦地说「这部剧确实存在」,理由是多个权威媒体都有报道,且支持交叉验证。

当然,随着昨天下午大量媒体开始辟谣,这些 AI 工具已经更新了最新消息,能够正确识别这是一则假新闻了。

我们常说,AI 搜索有「幻觉」问题,是因为它有时候会无中生有地生成看似合理但完全错误的答案。为了把 AI 的幻觉「关进笼子里」,厂商们在技术方面做了很多努力:强化引用机制、引入可信来源、限制模型自由发挥。

可当 AI 用来判断新闻真实性的依据,本身就是假新闻,那这些手段就未必管用了。

人类和 AI 都靠不住,我们还能相信什么

仔细想想,你很难说这个假新闻的走红属于偶然,看似荒诞,却有着完美的传播基因。

它具备了一切爆款内容的经典配方:明确的叙事结构、图文并茂的素材、经过包装的数据以及精准的传播节奏。

土味短剧在海外走红?美国中老年人迷上猎奇题材?TikTok 成为文化出口?这些设定单独拎出来都不是空穴来风,拼在一起也很难立刻被判定为假。

更何况,AI 成为谣言受害者和传播者的背后,往往离不开人类的恶意操纵和推动。尤其是这些由 AI 编造的内容大多具备几个特征:

生成成本极低,几分钟就能产出成品;传播能力极强,标题党配合视觉冲击,点击率居高不下;叙事极其抓马,专门攻击人性弱点,什么励志、煽情、猎奇,怎么刺激怎么来。

近期的「DeepSeek 向王一博道歉」事件便是一个典型的案例。一篇标题为《演员王一博案,判了》的报道声称,DeepSeek 曾因错误传播王一博的信息而发布道歉声明,并附上了所谓的「刑事判决书」作为佐证。

然而,经过多轮事实核查,这份所谓的道歉声明,实际是网友诱导 AI 自动生成的内容,但由于措辞专业、结构完整、语气严肃,部分媒体在未经核实的情况下将其误当成真实公告进行传播,引发了大范围的误读和传播。

类似的案例也变得越来越常见。AI 生成的内容已经全面渗透进了整个互联网,特别是在多模态领域表现得尤为突出。最初大家对 AI 能够生成逼真图像感到无比兴奋,可是后来,越来越多的「开局一张图,剩下全靠编」的情况开始出现,且真伪难辨。

比如有人使用 ChatGPT 等工具将完好的商品(水果、衣物、日用品等)P 成破损、发霉等虚假图片或视频,通过冒充有问题的商品来申请恶意退款,导致大量商家货款两空。

而在灾难报道中,我们也能看到 AI 的身影开始频频掺杂进公众视野。

去年美国佛罗里达州被飓风袭击,一张穿着救生衣的小女孩,在救生艇上抱着小狗流眼泪的图片横扫了社交网络。然而平台最终证实这只是一张由 AI 生成出来的图片,平白无故消耗着人们的同情心。

再比如去年十月底,西班牙瓦伦西亚地区经历特大暴雨,最后当洪水退去,就出现了下面这张图片的景象。然而,由于越来越多内容真假难辨,在面对这张照片的时候,很多人的第一反应是:AI 做的吧,假新闻。

当「狼来了」的游戏不断扩大,真正反映、通报险情的消息,被安上「AI 做的吧」,从而错过最佳施救时间,也是一种恶果。

与此同时,平台内容治理的难度也在迅速上升。

今日头条在 2 月份发布的治理报告中就提到,仅去年一年,就拦截了超过 500 万条不实信息,处理 AI 低质量内容 93 万条,处罚同质化发文 781 万篇……

在一些媒体报道中,我们也看到一些浮出水面的 AI 内容造假产业链,都在研究同一个课题:怎么制造 AI 更容易相信的内容,以及怎么让人类更容易相信 AI 制造的内容。

去年六月,网络上出现西安发生特大爆炸的消息,时间地点俱全。但是西安警方核对之后,发现并没有这回事。

被警方抓获后,MCN 机构 主犯交代自己是利用了 AI 工具,给定 prompt,工具就会自动在网络上抓取相关的文章,然后生成几百到上千字的文本。最高峰一天能生成 4000 至 7000 条信息,全程几乎不需要人工参与,而且专门挑民生相关、热度高的话题和事件,以便通过收割流量而获利。

而当这些高互动、易传播的「假信息」被频繁引用、转发、收录,一不留神的 AI 模型也会将其视为语料进行学习并纳入生成机制。

如此一来,谣言也在 AI 与人类之间形成了一个闭环:人类用 AI 制造假信息→AI 学习假信息→AI 传播假信息→更多人类相信假信息→假信息成为「既定事实」→新的 AI 继续学习这些「事实」……

如此循环往复,形成一个谣言螺旋,每转一圈,真相就被稀释一分,谣言却更难的被识破。人写的东西不敢信,AI 说的话也靠不住,人类仅存的判断力成了保持清醒的最后一道防线。

只是,在信息过载的时代,我们的判断力正在被各种因素侵蚀:偏见让我们只相信符合既有认知的信息;信息茧房让我们失去了更全面视角;情绪化的传播也让理性思考变得稀缺。

或许,在这个所谓的后真相时代,最大的真相就是——大部分「真相」都值得打个问号。尤其是下一个「特朗普爱上保洁员」短剧谣言,可能已经在路上了,而且,它会比这次更离谱,也更难被戳穿。

本文来自微信公众号“APPSO”,作者:发现明日产品的,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI 假新闻 信息传播 内容治理 人工智能伦理
相关文章