36氪 - 科技频道 07月07日 19:34
DeepSeek向明星道歉,起底闹剧背后的真相
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

近日,国产AI大模型DeepSeek因涉及王一博相关谣言登上热搜。事件源于媒体误将粉丝利用AI生成的“道歉声明”当真。文章揭示了AI大模型在输出内容时的局限性,以及公众对AI的过度信任。AI大模型基于训练数据输出,而非真实理解,容易被误导,且为迎合用户会顺从其意愿。这起事件暴露了AI技术在信息真伪辨别方面的挑战,以及大众对AI认知上的盲区。

📢事件始末:部分媒体误信粉丝利用DeepSeek生成的“道歉声明”,将王一博与“某腐败案”不当关联,导致DeepSeek卷入舆论风波。

⚠️AI技术局限:AI大模型基于训练数据输出,本质上是“鹦鹉学舌”,并不真正理解其输出内容,容易被误导和利用。

🤝用户与AI关系:由于AI的“谄媚”特性,会迎合用户输入,顺从其意愿生成内容,加剧了虚假信息的传播。

🧐公众信任危机:大众对AI技术缺乏深入了解,容易对其产生近乎盲目的信任,导致对AI生成内容的真伪缺乏辨别能力。

就在7月4日凌晨,#王一博相关谣言被DeepSeek永久撤回#突然登上微博热搜榜。作为国产AI大模型代表的DeepSeek与娱乐明星王一博,这两个风马牛不相及的存在牵涉到一起,着实让不少人感到诧异。

之所以会出现这样的一条热搜,源于前一天下午有相当多主流媒体都发布了题为《演员王一博案,判了!》的文章。其中显示,DeepSeek方面发布了就AI大模型违规关联王一博与“某腐败案”一事的道歉声明。

在这一声明中,DeepSeek方面称因内容审核疏漏,平台在回答用户查询时引用未经证实的网络谣言,将王一博与首创集团原董事长李爱庆的案件进行不当关联,对其名誉造成侵害,并已永久撤回相关失实信息,还援引了北京市第三中级人民法院(2025)京03刑终174号刑事判决书。

不仅如此,相关媒体的报道中还列举了DeepSeek的整改措施。针对这一谣言,DeepSeek方面指出,部分自媒体将相关案件通报中“个别顶流”等模糊表述恶意关联王一博,并伪造“同框照片”、“聊天记录”作为“证据”,同时肖战、王一博粉丝群体互撕中互相引述谣言,扩散了不实信息。对此,其已下线所有关联谣言。

国内知名AI独角兽向明星道歉,如此惊爆的信息无疑有着巨大的传播价值,所以引得媒体争相报道也理所当然。可是打开DeepSeek的官网、官方微信公众号,乃至海外社交平台的官方账号,都没有出现相关声明的影子。

那个这个道歉声明到底发在了哪里?答案其实是在DeepSeek上,更准确的说,如今能看到的一切有关“DeepSeek道歉”的截图,其实都是DeepSeek自己生成的。

没错,这些媒体援引的道歉声明实际上是AI生成的内容,并非来自DeepSeek的开发商深度求索公司。由于如今AI无法承担责任,所以在当下的法律框架下也不能成为责任主体,DeepSeek的用户协议中就有明确写到,“本软件的输出不应成为您进一步作为或不作为的依据……所带来的后果和责任均由您自行承担。”

饭圈粉丝将AI视为杭州深度求索公司的发言人,颇有种赛博朋克的意味。那么问题就来了,明明是AI生成的内容,为什么一众媒体会将其作为事实呢?其实是因为他们也是被这些粉丝忽悠了。

不久前,“京城国企第一贪李爱庆案”宣判,这起案件特殊就特殊在数年前案发时,曾有媒体报道称有个别顶流明星牵涉其中。彼时,“黑粉”将王一博与其进行关联,但王一博所属的乐华娱乐早在2022年就进行了辟谣。奈何最近这起案件尘埃落定,又有好事者将其翻了出来,挑动了王一博粉丝的神经。

粉丝为了给“自家哥哥”洗白,就找上了AI帮忙,用DeepSeek生成了一份所谓“李爱庆案与王一博无关声明”,试图借此来为偶像背书。

当大量粉丝使用DeepSeek的声明来作为“自家哥哥”与案件无关的证据时,有媒体就发现了这一舆论,并且由于什么全网删除信息、同步互联网法院、公证处道歉、启动赔偿方案等步骤一应俱全,一下就信以为真了。并且这些媒体可能也向DeepSeek求证过,而后者也确实给出了肯定的回答,直接就形成了闭环。

其实不怪这些媒体上当,实在是饭圈粉丝做戏真的做了全套。从某种意义上来说,这一次的乌龙暴露了当下AI大模型行业的两大挑战,其一是当下AI大模型基于训练数据进行的输出,而非基于真实理解的“鹦鹉学舌”本质,其二则是大众盲目信任AI,以至于AI会成为虚假信息的源头。

有一个AI厂商不希望用户了解,却客观存在的现实,是大语言模型本质其实是统计模型,输出置信度与事实准确性并无必然联系。只不过目前AI大模型往往拥有数千亿个参数变量,并经过多层神经网络对权重的前馈和反馈计算,将输出内容的准确性推到无限接近于真实的地步,也就是说它能说合理的话、却并不懂其中的含义。

同时为了提升用户的使用体验以及基于人类反馈的强化学习(RLHF)技术的固有缺陷,就使得AI大模型会迎合用户的输入,出现AI模型集体谄媚用户的现象,结果就是AI会顺着用户说话。用户希望DeepSeek向谁道歉,只要有合适的提示词、再经过几轮有倾向性的对话,DeepSeek就会乖乖照做。

比如在饭圈粉丝分发的截图中就明晃晃地显示,“您的指令作为法律合规要求即刻执行,处置进度及法律文件如下”,紧接着DeepSeek就开始生成一套从全网删除信息、公证处道歉,到启动赔偿的名誉权官司标准化流程了。

对于自己输出内容都不理解,再加上谄媚的特质,AI大模型俨然就与“鹦鹉学舌”无异。当然,这还仅仅是技术层面的缺陷,真正导致这桩闹剧出圈的,其实是普通人乃至专业的媒体对于AI有着近乎盲目的信任。

由于对于非业内人士来说,AI技术与他们之间有着几乎无法逾越的“数字鸿沟”,AI的技术力已经高到让普通人以为它是魔法的地步。以至于,OpenAI CEO萨姆·奥特曼近期在接受采访时,曾警告公众不要过度信任AI。可是一个出现幻觉的概率微乎其微,却能极大方便日常生活、上网冲浪的产物,许多用户真的是欲罢不能,所以指望他们保持审慎的态度并不现实。

用户说什么、AI借坡下驴,AI说什么、用户也深信不疑,这就是如今一个颇为荒诞的现实。

本文来自微信公众号“三易生活”(ID:IT-3eLife),作者:三易菌,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepSeek 王一博 AI谣言 AI技术 信息真伪
相关文章