差评 22小时前
DeepSeek 向王一博道歉?知道真相后我乐了。
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

文章探讨了人工智能在新闻传播中引发的问题,以DeepSeek公司“道歉门”事件为例,揭示了媒体未经核实就传播AI生成内容的现象。文章指出,公众对AI的过度信任以及AI自身可能存在的错误,导致虚假信息传播。作者呼吁对AI生成内容保持警惕,强调独立思考和事实核查的重要性,预警了AI时代新闻传播的新挑战。

🧐 DeepSeek“道歉门”事件揭示了媒体对AI生成内容缺乏验证的现状。事件中,媒体未经核实,将网友与AI的对话截图误认为是DeepSeek官方道歉声明,迅速传播,导致虚假信息流传。

🤔 公众对AI的盲目信任是导致信息误传的重要原因。文章指出,人们倾向于将AI的回答视为权威,甚至将其作为辩论的终极武器,忽视了对信息真实性的核查。

🤖 AI自身存在局限性,可能导致信息失真。AI基于概率进行信息整合,可能出现事实错误和内容捏造。文章举例说明,AI在搜索信息时会虚构帖子链接,误导用户。

⚠️ 文章警示了AI时代新闻传播面临的挑战。作者认为,在AI时代,未经核实的新闻将更容易传播。呼吁读者对AI生成的信息保持警惕,强调仔细甄别的重要性。

原创 世超 2025-07-13 00:01 浙江

新闻学碰上了 AI

说实话,哥们很少写文章是边写边无语的。

因为今天要讲的事太逆天,都不知道从哪个角度开始喷。

故事从 7 月 3 号说起。

那天,公众号上突然有一堆媒体发了篇新闻,说 DeepSeek 向王一博道歉了。

阵势相当浩大,不少文章阅读量还超过10万+。

大概是说:

人工智能公司 DeepSeek 承认因内容审核疏漏,在某个回答里引用了网络谣言,对王一博名誉造成侵害。

于是 DeepSeek 决定永久撤回失实信息,还援引了相关刑事判决书。。

emmm。。。

但问题是:

世超翻遍了 DeepSeek 官网和她全网社媒账号,并没发现相关道歉声明。在裁判文书网,也没找到相关的刑事判决书。

所以,DeepSeek 到底哪道歉了?

其实当天,就有媒体和网友扒到了这个新闻的来源。

大概就是微博上这样一张的截图↓

把图放大后,你就能体会到我的心情。。。

WTF。。。

所谓的道歉声明,根本不是什么官网公告,而是某个网友和 DeepSeek 的对话截图

是网友通过对话,让 DeepSeek 返回了一份道歉声明。

最后就推导出:人工智能公司 DeepSeek 正式道歉。

不是哥们,你们就这么写新闻的?

如果这样算道歉的话,那我明天就宣布:DeepSeek 公司向差评公司的门卫金毛火锅道歉。

到这,你可能明白了,整件事,无非就是 2 点共同造成。

1、网友误认为 DeepSeek 的 AI 回答 = DeepSeek 官方

2、一堆媒体不做验证就转发新闻

虽然很奇葩、很罕见,但世超觉得,这种事以后可能会经常发生。。。

因为越来越多的人,把 AI 的话当做唯一真理。

你发现没,这几年的社媒讨论氛围,已经发生了巨变。

很多时候,你刚提出一个观点,还没等来真人反驳,就被网友用一张 AI 对话截图给拍脸上。

“ 我问过 AI 了,它说你是错的!”

在他们眼里,“ 我问过 AI  ”这句话已经成了一种权威背书,一种辩论的终极武器。

仿佛只要祭出这张截图,你就得当场认输。你再反驳,就是你杠,你无知,你挑战科学。

毕竟他们可是问了 DeepSeek、豆包、ChatGPT 这些看似全知全能的“ 神 ”。

这还没完,现在一个话题抛出来,评论区也没法看了。

以前大家都百花齐放,但现在很多前排的高赞回答,都大模型生成的“ 1、2、3、4 ”点。

一个本来聊出火花的话题,被一群看似绝不会犯错的 AI 整得毫无生气。

大家已经不再输出观点了,而是搬运观点。人和人的思想碰撞,变成了 AI 模型大作战。。。

谁家能力强,谁家会员贵,谁的观点就是对。

就连一些自媒体做 xxx 产品TOP10、餐馆榜单,居然也用 AI 推荐。。。

我想问 AI 用过这些设备吗,又吃过这些餐馆吗?

兄弟,AI 真不是你们想得那样。、

AI 是有幻觉的,它不仅会搞错事实,还会凭空捏造事实。

前两天,编辑部想做个选题,叫“任务管理器没小时候好用了”。我自己没找到佐证,就让 Gemini 帮忙搜搜,看网上有没有类似的讨论。

结果 Gemini 非常自信地告诉我:你观察得对!网上超多这种说法!

然后,它像模像样地给我列出了一堆来自知乎、Reddit、微软社区的帖子链接。

结果我挨个点进去,要么是“页面不存在”,要么就是风马牛不相及的另一个话题。

也就是说,它为了奉承我,硬生生编了一整套压根不存在的话题。

类似情况,我身边可太多人遇到过了。

大家有机会可以测试一下,只要稍微较真两下,你就会发现 AI 到底扯了多少淡。

以上这句话,我不是针对谁,我是针对所有 AI。

我理解很多人第一次接触到 AI,都会被 AI 自信和逻辑自洽的回答给征服。

它们总是很有道理,侃侃而谈,舌灿莲花,顽石点头。

但为什么每一个 AI 都会在明显的地方标注:我可能会犯错,请仔细甄别。

因为所有问题的答案, AI 本质上并不知道。

“鼻子”下面是“嘴”,“大家”后面跟着“好”,这些都只是 AI 通过计算概率,猜到的最佳答案。

AI 的本质,就好比你手机输入法联想功能的 Pro Max 版。有时它们会猜对,但有时也会猜错。

这次的王一博乌龙事件,只是一个开始。它用一种极其抽象和搞笑的方式,给大伙儿提了个醒。

当能言善辩、逻辑自洽、还能一本正经胡说八道的 AI,遇上了一群疏于求证、只想搞个大新闻的媒体,这种事情只会越来越多。

真就如我们当年在《新黄色新闻》那篇文章里预测的那样,AI 时代,那些没有得到验证的新闻会传播得变本加厉。。。

回头看看,DeepSeek 那一句标黄高亮的“本回答由 AI 生成,内容仅供参考,请仔细甄别 ”,还是低估了人类。

或许只有刻在脑门上,才能大家真正记住这句话。



撰文:刺猬   

编辑:莽山烙铁头   

美编:焕妍

图片、资料来源

小红书网友




阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI 新闻 虚假信息 DeepSeek 媒体
相关文章