index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html
![]()
本文探讨了生成式AI中普遍存在的“AI幻觉”现象,即AI在看似合理的情况下编造虚假信息。文章通过博物馆策展人小G的经历,揭示了AI的工作原理并非查找答案,而是基于训练数据预测下一个词元。Transformer模型通过注意力机制关联信息,但并不理解词意,导致其在处理复杂问题时可能产生“幻觉”。文章还分析了推理能力与幻觉率的关系,并探讨了降低幻觉的方法,强调在利用AI的同时保持独立思考和批判性思维。
🤖 AI幻觉是指生成式AI在看似合理的情况下编造虚假信息,源于AI基于训练数据预测词元,而非理解词意,导致其在处理复杂问题时可能产生看似专业实则虚假的细节。
🧠 Transformer模型是主流生成式AI的基础,通过注意力机制捕捉词元间的联系,但由于模型本身和训练过程未要求AI识别词意,因此容易出现事实错误,尤其是在用户询问训练数据中无直接答案的问题时。
🌡️ 降低大语言模型的“温度”参数、使用外部记忆加指令限制等方法能在一定程度上降低幻觉,但无法彻底消除,因为AI回答仍受训练数据影响,且模型在训练和运行的每一步都可能引入幻觉。
🎭 创造力和幻觉是一体两面,都基于已有知识和概率分布生成语言,区别在于用户期望和应用场景,因此,应学会与幻觉共处,选择更明智灵活的使用方式,并始终保持独立思考的能力。
*本文为「三联生活周刊」原创内容
我有一位朋友小G,身为博物馆策展人,受过良好学术训练的她对历史考据严谨到近乎偏执。两年前,ChatGPT崭露头角,不少人陷入职业焦虑,小G却毫不在意,她将这类AI统统称为“人工智障”,觉得它们输出的内容既浅薄又荒谬,根本无法撼动她在专业领域的自信。但随着DeepSeek重掀热潮,被工作deadline逼得焦头烂额的小G,也不得不向AI求助了。她要为历史展品编写通俗易懂的场景解说,便向DeepSeek询问:“请从钱庄伙计的视角,讲讲在没有科技设备的年代,在工作中会遇到哪些困难。”
《无法成为野兽的我们》剧照
很快,DeepSeek便交出一份“钱庄工作手记”,其中详细描写了“天未亮就要在桐油灯下核对账目”的年轻伙计,“用长柄放大镜查验银票边角的暗记纹路”的掌柜师傅,甚至还提到了“苏漕平每百两扣二钱五”这样的专业细节,想想看,“苏漕平” 可不是一般人能知晓的术语(注:漕平,旧时征收漕银的衡量标准,各地标准不同,一般冠以地名)。这让小G眼前一亮,她在聊天群里兴奋夸赞:“确实启发效果不错,比以前的人工智障强多了!”然而,仅仅5小时后,她的态度就来了个180度大转弯:“好多内容是它瞎编的!给我编了个钱庄使用的套色密押印章组,本来还觉得很有道理,但仔细一查,根本就没有这个东西……”不甘心的小G试图要求AI在生成文本时同时提供参考文献,可新生成的说明里,不仅“骑缝章”“法币券”等真实元素与“验钞机”“美钞暗记对照表”等虚构情节交织,给出的参考文献更是子虚乌有,小G只能无奈吐槽:“结果现在我现在不得不给它写的东西做一轮事实验证,我又不是它导师……”被AI坑过的不止小G。随着生成式AI的普及,越来越多的人发现,表面上无所不知的AI,有时会煞有介事地编造看似合理实则虚假的内容。这种现象,被研究者们称为“AI幻觉”(AI Hallucinations)。要明白“AI幻觉”,得先搞清楚生成式AI的工作原理。很多人从新闻中的“大语言模型”一词展开想象,以为ChatGPT或DeepSeek像是一个拥有庞大数据库的搜索引擎,能像翻书查文献一样给我们的问题提供准确答案。但其实,今天的生成式AI更像是一个沉浸在语料库海洋中学习说话的学习者,它不是在查找答案,而是在预测,下一个要说的最合理的词应该是什么。这个学习者有专属的大脑结构,那就是Transformer深度学习模型,它于2017年被提出,是如今主流生成式AI们使用的基础模型,在传统机器学习的基础上它改善了性能,并大幅提升了并行运算的效率,因此才可以基于这种架构训练出参数数量巨大的模型,比如DeepSeek的V3满血版拥有高达6710亿个参数,所谓“大语言模型”的“大”字就是由此而来。Transformer处理语言时,会首先把输入的句子拆成一组包含位置信息的词元(token),并用数字对词元编码方便计算机处理。一个词元可能是一个单词,也可能是一个词根、数字或标点等类似单词的东西,比如“生成式AI”可能被拆为“生成”“式”“A”“I”,Transformer可能被拆成“Trans”“former”,这种拆分能让AI更灵活地处理各种语言。
《欢乐颂》剧照
Transformer模型的核心是attention注意力机制,在处理好词元后,它会对输入句子中的每个词元计算上下文中的哪些词元与它相关,即 “该注意” 的内容,借此捕捉句子中远距离词语的联系。想象一下你读到 “阴雨连绵,小伙计仍然要……”这半句话时,大脑会关注 “阴雨”,并依据“仍然”的转折语义,推断接下来小伙计应该不会进行一个适宜雨天的行为,由此判断后面可能出现“出门”之类的户外行动。AI的注意力机制也是如此,分析词元关联,确定“注意”重点,综合注意力权重产生新的语义向量,最终输出基于前文预测的下一个词元的概率分布。AI训练时用了大量高质量文本和书籍等资源,最基本的训练任务就是从这些文本中摘取段落,让模型尽可能准确地预测后续应该出现的词元。之后还会对模型应用领域内的相关文本进行微调。所以,从内部结构到训练过程,AI都没有“理解词意”这一步。它只是模仿训练集中的文本续写文字。人类回答问题时会试图基于知识进行联想推理,而AI则基于训练数据中观察到的语言模式生成答案,它不理解问题,只是按统计规律给出看似合理的输出,因此也有研究者用 “随机鹦鹉” 形容大语言模型的这一特性。这就解释了小G为何会得到“套色密押印章组”这种幻觉回答。AI处理晚清钱庄历史问题时,注意力机制关联训练数据中与“钱庄”“防伪”等相关的所有信息。但它不理解词元的含义,也不区分信息真假,仅按统计关联性选择看似“最可能”的组合。训练数据里,古代金融机构需要防伪,印章是认证工具,套色是印刷技术,密押是银票防伪暗记,这些碎片信息被概率重组,就创造出了看似专业合理实际并不存在的历史细节。
《我,机器人》剧照
由于模型本身和训练时都未要求AI识别词意,所以它自然容易出现事实错误,尤其是当用户询问训练数据中无直接答案的问题时更是如此。其实,胡说八道并不是Transformer模型的专利,在它之前的循环神经网络模型或者更早的N-tuple,也都能按要求格式生成不存在的文言文、维基词条或网站链接。相对来说,Transformer模型所生成的胡说八道其实比以前更少而不是更多了。只是由于它性能更强,生成内容更像回事,即便有错误也易混在通顺上下文中蒙混过关,所以才引起了更多人的关注。在众多生成式AI中,DeepSeek系列模型在很多方面表现出色,但“幻觉”问题也饱受诟病。根据Vectara HHEM人工智能幻觉测试,推理模型DeepSeek - R1(R1)的幻觉率达14.3%,是其基座模型DeepSeek - V3的近4倍,远超行业平均水平。这也引发了关于模型推理能力与幻觉率关系的讨论:是否模型推理能力越强,越容易出现幻觉?其实,推理能力与幻觉率并非简单的正相关或负相关。例如,对比同一系列里有思维链能力的推理模型和通用大模型的话,DeepSeek的推理模型R1跟基座大模型V3相比,R1推理能力更强,幻觉率也显著提高;而Chatgpt的推理模型o1,比通用模型4o推理能力更高,幻觉率却更低。所以,不能简单认为推理能力越强,幻觉率就越高。
《梅根》剧照
这种矛盾的现象表明,影响AI幻觉率的因素很复杂,可能与模型训练数据、优化目标、架构设计等多方面有关,并非仅和推理能力相关。一个合理的推测是,某些推理模型在优化思维链和逻辑推理能力时,可能牺牲了对事实准确性的严格要求,或者增强了模型“自圆其说”的能力,从而产生更具迷惑性的幻觉。有一种常见说法,降低大语言模型的“温度”参数就能消除幻觉。温度参数一般不在生成式AI用户界面(如网站或APP)直接显示,自己搭建本地模型或利用 API 接口时才能看到。这个参数决定预测词元概率的集中或分散程度。比如前文是 “猫吃了……”,模型预测下文概率从高到低可能是“鱼”“罐罐”“老鼠”“毛团”“一惊”等。温度越高,输出概率越分散,“一惊”这种低概率结果出现可能性越大,也就是模型的回答会更有创意;温度越低,输出概率越集中,若设为0,则回答理论上一定是概率最高的“鱼”。但如果认为把温度设为0幻觉就会消失,则是错误的。因为AI回答仍受训练数据影响,若模型算出的最高概率下文有误,温度为0时仍会产生幻觉,而且是 “必然”产生。另一种说法是用外部记忆加指令限制可消除幻觉,即给大语言模型加载各种具有准确信息的知识库,接到用户指令后,模型会先在知识库中查询与问题相关的信息,然后在检索得出的上下文词元基础上再去计算概率生成文本。但实际上,这也不能完全消除幻觉,因为这种流程仍需大语言模型依赖训练集中学习的概率进行总结提炼,它仍可能产生与知识库不符的答案。当然,这些方法都能在一定程度上降低幻觉,但彻底消除幻觉并不现实。模型从训练到运行,每一步都可能引入幻觉。训练集本身可能有错误、偏向或虚构内容,训练过程要在准确性与过拟合间平衡,用户输入也可能有诱导性或无法回答的问题,模型对用户意图判断也可能出错。
《机械姬》剧照
或许有人设想,在理想场景下,训练集只含真实完备资料,用户问题都能在其中找到答案,且模型训练完全准确,这样的大模型是否就不会产生幻觉?但如此一来,它就只是单纯查阅训练集,失去了额外的价值。理解了AI的工作方式,就能看清两种常见却相互矛盾的误解,它们都源于对AI本质的误解。第一种误解认为AI只会复制拼接,没有真正创造力,觉得AI只是重组训练数据,拼接知识碎片,创造不出新东西,认为它是高级复制粘贴工具。第二种误解则相反,期待AI永远准确无误,一旦发现AI编造内容就愤怒,仿佛AI是知识的绝对守护者。但实际上,创造力和幻觉是一枚硬币的两面,从技术角度看机制完全相同,都是基于已有知识和概率分布生成语言,区别只在于用户期望和应用场景:在创意性任务中,我们希望AI有 “创造力”;事实性任务中,我们希望它“准确”。与其期待用巧妙方法彻底消除大语言模型的幻觉,不如学会与之共处,选择更明智灵活的使用方式。例如,别问太模糊或误导性问题,通过联网功能和特定提示词限制回答范围,为AI提供更准确信息源等等。最重要的是,始终保持独立思考的能力,对AI答案持谨慎怀疑态度。在熟悉领域很容易识别幻觉,但在陌生领域,我们往往轻信AI的权威性,这恰恰是最危险的。在信息爆炸时代,辨别信息真伪的能力比获取信息的能力更宝贵。
《绝世网红》剧照
当然,换个浪漫视角思考,人类的创造力是否也是幻觉的另一种表达?那些一闪而过的天才直觉,不也是基于知识累积的灵感?AI那些被视为“错误”的回答,是否展示了平行宇宙的其他可能性?或许在另一个时空,真有小伙计发明了 “套色密押印章组”,在小G的博物馆里,它正等待着来访者好奇的目光?毕竟,连爱因斯坦也真的说过:“想象力比知识更重要” 。 排版:初初 / 审核:雅婷
本文为原创内容,版权归「三联生活周刊」所有。欢迎文末分享、点赞、在看三连!未经许可,严禁复制、转载、篡改或再发布。
文章原文 