南瓜博士 03月07日
AI 造假层出不穷,人类的脑子还够用吗?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

文章探讨了AI技术快速发展下信息真伪难辨的现状,尤其关注AI生成内容对人们认知的影响。作者通过亲身经历,指出AI生成内容中存在的“幻觉”和虚假信息,即使人们没有认真阅读,也会在潜意识中留下模糊印象。AI搜索也可能参考错误信息源,给出错误答案。文章提出了应对策略,如信息源“断舍离”、多问“为什么”、保持“心理距离”等,但强调在AI时代,更重要的是专注自身关注领域,通过经典资料和主动AI搜索获取信息,并挣脱信息茧房。

🤔AI造假的可怕之处在于,即使没有认真阅读,虚假信息也会潜移默化地影响认知,让人对信息的真实性产生模糊印象。

🔍AI搜索可能参考错误的源头,给出颠倒是非的答案,用户必须同时查看引用来源,否则AI给出的回答会更有欺骗性。

🗑️应对AI时代的信息挑战,最有效的方法是“断舍离”,清理信息源,专注在自己最应该关注的事情上,不必FOMO(害怕错过)。

🧠找经典的优质资料,用自己的大脑而非依赖AI去阅读,再通过主动AI搜索与探讨,来获取与之相关的最新信息,并定期从社交群体中获取信息,挣脱信息茧房。

原创 ElfeXu 2025-03-06 08:41 上海

我们会是生活中还尚存真相的最后一代吗?

其实,这个话题我在春节期间就想写。但不想凑热点,也不想招惹将捧 DS 上升到爱国高度的无脑小将,就一直搁置着。最近因为元宝的流行,AI 造假的影响越发被放大,得写一写了。


大年三十,一篇以梁文峰的身份写的长文被到处转发。攀哥及时辟谣告诫太 low 了别转,而我放着春晚不看,认真给大家传授识别 D 里 D 气文字的诀窍:一骑绝尘的幻觉、用力过猛的细节描写和比喻排比。


一个多月过去,似乎没再出现这类全民疯转的爆火假文章,但 D 里 D 气的内容却已渗透网络。

前些天,有篇讲 AI 如何改变学习方式的文章,文中遍布“三重升维”、“输入革命”、“输出质变”这类浮夸词汇,和“认知外骨骼”这样的奇怪比喻,动辄再来个一眼假的数据证明,百分百 DeepSeek R1 生成。但这样的内容还是迷惑了好些人,我在好几个教育群都看到有转。

我说这肯定是瞎编,有老师疑惑是否是内部课程没有公开才导致网上搜不到别的文章提及。我只能再事后找补列出一堆理由。老师终于仔细看了,然后说:“嗯,有问题”。

转发的朋友尴尬表示自己确实没认真看。其实要不是刚巧同时在几个群里看到这篇文章,我也不会去认真读,更不会较真和群友们说那么多。

但 AI 造假的可怕之处正在于此:没有认真看,信息却还是会进脑子。你不记得文中具体课程内容是啥,却还是会有“好厉害好厉害人家学校已经在课堂上把 AI 玩出了花并且实验数据证明非常效果”这样的模糊印象。

试想一下如果每天你接收到的信息里有 10% 来自 AI 存在幻觉,会有什么后果?如果 20%、50% 呢?


更糟糕的事情在于 AI 搜索,参考错误的源头,信誓旦旦给出颠倒是非的答案

某日我看到群友转发文章问真假。把截图中内容扔到元宝里,搜出一堆假到离谱的回答,尽是些魑魅魍魉的公众号。(点击看大图吧。内容如此辣眼睛以至于我只想把它缩小了放文章里。)

为了给学生示范如何求证信息,我取最后截图中最后一句话找来源,却大跌眼镜:AI 在“被质疑”前加了“甚至”两字,委屈巴巴坚信梁文锋说过这句话,还说这团队有 87% 是归国博士。

是不是再多追问几句就好呢?也未必。你必须同时查看引用来源(默认右侧面板是关闭的),否则 AI 给出的回答有那么多具体细节,会更有欺骗性!

当然,这个例子因为它实在离谱,人们还是会有意识去看一下信息源。但如果只是一点点假呢?

我们每天到底会接受多少半真半假的信息?

以前我喜欢推荐 AI 搜索用秘塔+元宝:公众号有大量优质文章是别处搜不到的,只有靠元宝。
但 DS 火了后用 DS 生成内容填充的垃圾公众号,导致元宝的信息源就是个大粪坑,很难让人有胆量从中捞金子。


怎么办?DeepResearch 一番调研后给了我很多方法,其中 SIFT 看起来是最便捷易行的。下图是我用 Claude 画的卡片。

SIFT 方法的最大特点是快捷:对于大多数网络消息,S 这个步骤停下来想一想,就可以抛开不去浪费时间了。只有极少量信息,值得我们花时间去追溯根源。

此外,DeepResearch 给的建议还有:

    “断舍离”:清理信息源,关注优质渠道

    多问几个“为什么”,要想一想消息背后是谁、动机是什么

    保持“心理距离”:感到“愤怒”或“兴奋”时尤其要警惕

但其实 AI 时代,这些建议建议还远不够。


尤其后两条:考虑动机、警惕情绪的裹挟,这些都是应对“后真相时代“谣言的招数。但如今,太多的信息生产者也许并不打算故意欺骗,只不过要用 AI 炮制内容赚流量,甚至本身想写的内容还不错只不过偷懒用 AI 写就遭遇幻觉了……这样的内容,要如何识别?


大概只有断舍离是最有效的。

不用 FOMO,有价值的信息迟早会浮到眼前,晚一个月知道不会有多大损失。
不要贪心,专注在自己最应该关注的事情上,其它的,无知就无知吧,还是不会有多大损失。

找经典的优质资料,用自己的大脑而非依赖 AI 去读;再通过主动 AI 搜索与探讨,来获取与之相关的最新信息。

补充设计一个定期从社交群体中获取信息的机制,帮助自己挣脱信息茧房。

这样,我的脑子大概能一直够用?


我是在技术和教育圈来回串的贪玩的好奇星人。我发起了人机共生挑战,探索 AI Native|VUCA Player | Unique Creator 的培养之路。欢迎点赞点收藏关注加星,也期待多多评论区交流。


今天的文章,与培养目标 AI 原住民——批判性思维与信息素养密切相关。

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI造假 信息素养 批判性思维 DeepSeek 信息茧房
相关文章