IT之家 05月22日 08:13
MIT 新研究指出 AI 不懂“no”,逻辑推理缺陷导致否定词成“盲区”
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

麻省理工学院最新研究揭示,人工智能在理解“no”和“not”等否定词方面存在显著缺陷。包括ChatGPT、Gemini和Llama在内的主流AI模型,在处理否定语句时倾向于默认肯定关联,忽略否定语义。这种缺陷在医疗领域可能导致严重后果,例如误解“无骨折”或“未扩大”等关键信息。研究指出,问题的根源在于AI的训练方式侧重模式预测而非逻辑推理。专家呼吁,应结合统计学习与结构化思维,提升模型的逻辑能力,以避免AI在法律、医疗和人力资源等领域引发关键错误。

⚠️AI模型在理解否定词方面存在明显缺陷,例如对“no”和“not”等词语的处理能力不足,容易忽略否定语义,产生理解偏差。

⚕️在医疗场景中,AI对否定词的误解可能导致严重后果,例如误解“no fracture”(无骨折)或“not enlarged”(未扩大)等关键信息,从而影响诊断和治疗。

🧠AI的训练方式是造成这一问题的主要原因,当前语言模型依赖模式预测而非逻辑推理,导致AI在面对否定语句时,容易受到肯定词的影响而产生误判。

💡解决AI对否定词误解的关键在于提升模型的逻辑能力,结合统计学习与结构化思维,使AI能够更准确地理解和处理否定语句。

IT之家 5 月 22 日消息,麻省理工学院(MIT)最新研究表明,人工智能(AI)在理解“no”和“not”等否定词方面仍存在明显缺陷,在医疗等关键领域可能引发严重风险。

研究表明,AI 已快速发展,具备诊断疾病、创作诗歌甚至驾驶汽车等多项实用技能,但对“no”和“not”等否定词,却束手无策。

在博士生 Kumail Alhamoud 的带领下,MIT 团队联合 OpenAI 和牛津大学,发现包括 ChatGPT、Gemini 和 Llama 在内的当前主流模型,在处理否定语句时,常倾向于默认肯定关联,忽略否定语义。

研究报告认为,这种情况在医疗场景产生的潜在危害尤为明显。例如,AI 可能误解“no fracture”(无骨折)或“not enlarged”(未扩大),导致严重后果。

IT之家援引博文介绍,问题的根源并非数据不足,而是 AI 的训练方式。斯坦福大学深度学习兼职教授 Kian Katanforoosh 指出,大多数语言模型依赖模式预测,而非逻辑推理。

这导致 AI 在面对“not good”(不好)时,仍可能因“good”一词而误判为正面情绪。专家强调,若不赋予模型逻辑推理能力,类似细微却致命的错误将持续发生。

Lagrange Labs 首席研究工程师 Franklin Delehelle 也表示,AI 擅长模仿训练数据中的模式,但缺乏创新或处理训练数据之外情境的能力。

研究团队通过合成否定数据(synthetic negation data)尝试改进模型,取得初步成效,但细粒度的否定差异仍具挑战性。

Katanforoosh 警告,AI 对否定的误解不仅是一项技术缺陷,更可能在法律、医疗和人力资源等领域引发关键错误。他呼吁,解决之道不在于堆砌更多数据,而在于结合统计学习与结构化思维,提升模型的逻辑能力。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

人工智能 否定词理解 医疗风险 逻辑推理 AI缺陷
相关文章