APPSO 02月21日
DeepSeek 越强大,我就越容易变蠢?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

研究表明,过度依赖AI工具可能削弱我们的批判性思维。用户对AI的信任程度,而非任务类型或模型能力,是影响批判性思维调用的关键因素。为了避免认知退化,建议采用“3R原则”:强制复查AI的输出结果,进行至少两次修改;每周进行一次“0生成纯天然”的基础任务,如文章摘要或读书总结;将AI生成的内容重新解构,建立独特的思维导图。关键在于建立不能尽信AI的意识,并在使用AI的同时,积极锻炼和维护自身的认知能力。

💡**AI依赖与认知退化**:研究发现,过度依赖AI工具,尤其是在文书类任务中,会导致用户减少对自身批判性思维的运用。这种现象源于对AI的信任,使得用户不愿意反思和复盘自己在工具上的使用。

🤔**批判性思维的构成**:批判性思维包含三个核心构件:意识(审视需求和意图)、动机(设定明确目标)和能力(验证信息、验收质量)。当缺乏这三个要素时,依赖AI会导致认知思维的退化。

🔄**“3R原则”的实践**:为了避免认知退化,可以尝试“3R原则”:Review(强制复查AI输出,进行修改)、Reverse(每周进行一次“0生成”任务,如文章摘要)、Reconstruct(将AI生成的内容重新解构,建立思维导图)。

原创 发现明日产品的 2025-02-15 11:57 广东

提高批判性思维,不如就从更相信自己开始

有没有发现,自从 AI 成了你的「智力外挂」,大脑好像开始偷偷摸鱼了?

好用是真好用,但是一昧地迷信 AI 给出的东西,就有点不太对劲了——小心呐,过于依赖 AI,是会让大脑变蠢的。

微软研究院联手剑桥大学,针对 AI 对批判性思维的影响做了一个深入研究,发现过于相信生成式工具,会减少对自己批判性思维的使用。

对 AI,别太信了

这一次微软把研究范围聚焦到了生成式 AI 和知识工作者身上,也就是经常用大模型工具做案头工作的一群人。

一共 319 名知识工作者,这些参与者每周至少用到一次 AI 工具,包括 ChatGPT、微软的 Copliot 和 Google 的 Gemini,总用例多达到 936 个。

现在的 GenAI 工具尤其擅长文书类任务,研究人员把这种任务分成了三大类、九小类:

这个分类基本覆盖了大多数场景,从润色邮件、总结内容、提取要点、精准查询……这些就是我用 AI 常做的事啊。

关注 AI 第一新媒体,率先获取 AI 前沿资讯和洞察

平心而论,用 AI 本来就是为了提高效率,减少花在「脏活儿」上的时间,这无可厚非。比如有一位程序员,会用 Claude 帮忙写代码;一位外汇交易员,用 ChatGPT 生成交易策略;还有一位老师,会用 Dall-E 生成学校洗手教程的图片。

这样一来,用户自己需要做的工作,就从曾经的「零帧起手」,转变成「监督学习」。AI 负责出东西,用户来挑毛病、提意见,一轮两轮 N 轮的修改,直到满意为止。

这样的过程不是挺有效率的,怎么会让大脑退化呢?

这些事务型的任务 AI 完成起来又快又好,也就容易让人「掉以轻心」。除非是真的出现了特别离谱的结果,不然很多人都会放心把事情交给 AI。

而正是这种对 AI 的信任、对自己所选中的「虚拟工作伙伴」的认可,会让用户不愿意反思和复盘自己在工具上的使用——也很好理解,谁会轻易质疑自己的经验呢?

于是研究人员提出了这样一个问题:在与 AI 合作完成任务的过程中,你会调用自己的批判性思维吗

这里所谓的「批判性」来源于英文的「critical thinking」,是对可用事实、证据、观察和论据进行分析的过程。

在这个研究里,「批判性」在这里,并非单纯地指给成品挑毛病,而是有更确切的定义:

1. 能够审视自己的需求和意图,从而确定需要 AI 参与的地方
2. 能在心中设定明确的目标
3. 通过主观标准验证信息、验收质量

这三点对应了三种批判性思维里的核心构件:意识、动机和能力。当没有意识、没有动机、还缺乏能力的时候,依赖 AI 无异于让自己的认知思维进一步退化。

而这次研究最重要的发现,是那个影响调用批判性思维的决定因素:不是任务类型,也不是模型的强大程度,而是人对 AI 有多「信」

在强大的模型面前,每一个人都会产生自我怀疑——懂得不如它多,反应不如它快。有了 DeepSeek R1 这样的天才型选手之后,更是怀疑自己的深度思考能力也不及 AI 了。

出于对 AI 的认可,自然也就把重要的事交出去,不再过问。

怎么避免退化?从自信开始

依赖工具会让人变蠢,类似的说法很常见了,不是一天两天。最著名的研究,要数针对出租车司机习惯用导航之后,大脑内海马体的变化。

上个世纪 60 年代时,人们就发现海马与空间记忆密切相关。英国神经学家对伦敦的出租车司机进行了研究,发现接受培训期间,新手司机熟悉了伦敦的空间,他们的海马体明显变大。相比之下退休的司机,海马体则是在变小。

后来,又有学者直接找普通人做实验,发现在使用 GPS 时行走时,海马体不会处于活跃状态。只有自己思考路线该怎么走时,海马体才会被激活。

图片来自:大象公会

必须指出的是,出租车司机因为工作经验,海马体本身就异于常人,即便退化也只是回到普通人的均值,并不是恶性的萎缩、损伤。

这两个研究更多是在指出了锻炼大脑的必要性。这是一个恶性循环:越相信工具,就会越少调用自己的判断和认知。随着认知的退化,逐渐不具备找到错漏的能力了,只能越来越相信工具。

不过,这并不意味着要从此跟 AI 工具一刀两断,没必要。在工具越来越普及的现在,也不可能完全对 AI 避之不及。

回到刚才的「意识」「动机」和「能力」方面,只要建立不能尽信 AI 的意识,不过分放手。「3R 原则」是一个值得尝试的日常小练习:

Review 强制复查:对 AI 返回的答案、代码、方案,进行至少两次修改,拒绝复制粘贴。

Reverse 逆向训练:每周完成一次「0 生成纯天然」的基础任务。比如对长文章的提炼摘要、读书总结、播客总结,哪怕 AI 完成得更好,也坚持自己做一遍。可以把自己成果和 AI 的版本进行对照,这样可以观察自己的思路是否需要增补,以及 AI 容易在哪些地方出现幻觉。

Reconstruct 重构输出:将 AI 生成的内容重新解构。用工具生成思维导图是一个常见的用法,但是思维导图是被高度提炼之后的内容,许多信息被「折叠」了。正式这些被折叠的部分,影响了认知能力的锻炼。Reconstruct 的要点在于反过来拆解 AI 的长篇大论,建立独一无二的的思维导图。

「变蠢」可能是一个略带简单粗暴的说法,但这背后隐藏着一个朴素的道理:用进退废

批判性思维的减少,和对人工智能的信任有所相关,那么提高批判性思维,不如就从更相信自己开始。


我们正在招募伙伴

? 简历投递邮箱
hr@ifanr.com

✉️ 邮件标题
「姓名+岗位名称」(请随简历附上项目/作品或相关链接)

更多岗位信息请点击这里?




阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI 批判性思维 认知退化 3R原则
相关文章