虎嗅-AI 01月17日
OpenAI的o1模型推理时蹦出中文,什么原因?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

OpenAI的推理模型o1在回答问题时会出现用非提问语言思考的现象。虽最终回答为英语,但过程中会用中文等语言。OpenAI未作解释,专家提出多种猜测。

🧐o1推理模型接受大量含中文字符数据训练,可能受中文语言影响

🤔o1等推理模型可能使用自认为最能有效实现目标的语言

⚠️模型处理标记可能引入偏见,AI系统构建保持透明性至关重要

媒体报道,在OpenAI发布其首个“推理”AI模型o1不久后,有用户注意到一种奇怪的现象:即使用户是用英语提问,这一模型有时会在回答问题时突然“转而用”中文、波斯语或其他语言“思考”。

例如,当被问及“单词‘strawberry’中有多少个‘R’?”时,o1会开始其“推理”过程,通过一系列推理步骤得出答案。如果问题是用英语写的o1的最终回答会是英语,但在得出结论之前,它可能会在某些步骤中使用其他语言。

一位Reddit用户表示,“o1在中途随机地开始用中文思考。” 另一位用户在X发文询问:“为什么o1会随机开始用中文思考?整段对话都没有使用中文。”

OpenAI尚未对o1的这种奇怪行为作出解释,也没有正式承认这一现象。AI专家对此也没有明确答案,但他们提出了一些猜测。

一、使用中文数据标注引起?

包括Hugging Face的首席执行官Clément Delangue等人表示,像o1这样的推理模型接受了大量包含中文字符的数据训练。谷歌DeepMind的研究员Ted Xiao声称,包括OpenAI在内的一些公司使用中国的第三方数据标注服务,而o1转向中文可能是“推理过程中受到中文语言影响”的一个例子。

Ted Xiao在X上写道:

“OpenAI和Anthropic等实验室利用数据标注服务,为科学、数学和编程领域的高水平推理数据提供支持,而许多数据提供商都位于中国。”

在AI训练领域,标注在训练过程中帮助模型理解和解释数据。例如,用于训练图像识别模型的标注可能包括为对象周围添加标记,或为图像中的每个人、地点或物体提供描述。

研究表明,带有偏见的标注可能会导致带有偏见的模型。例如,普通标注员更可能将非标准英语标记为“不健康”语言,这导致基于这些标注训练的AI毒性检测器更倾向于认为AAVE 是“不健康”的。

不过,也有一些专家并不认同“中文数据标注”的猜测。他们指出,o1同样可能在解决问题时切换到印地语、泰语或其他语言。

二、AI只想使用最高效的语言来思考?

另一种观点认为,o1和其他推理模型可能只是使用了它们认为最能有效实现其目标的语言。

阿尔伯塔大学的助理教授、AI 研究员Matthew Guzdial在接受TechCrunch采访时说,“模型并不知道语言是什么,也不知道语言之间有区别。对它来说,这些只是文本而已。”

实际上,模型并不直接处理单词,而是处理“标记”。标记可以是单词,也可以是音节,甚至是单词中的单个字符。

像标注一样,标记也可能引入偏见。例如,许多从单词到标记的转换器假设句子中的空格表示一个新单词的开始,而实际上并非所有语言都使用空格来分隔单词。

Hugging Face的软件工程师Tiezhen Wang赞同这一观点,认为推理模型的语言不一致性可能源于模型在训练期间与特定语言建立的某些关联。

“通过接纳每一种语言的细微差别,我们扩展了模型的世界观,使模型能够全面学习人类知识。例如,我喜欢用中文做数学,因为每个数字只有一个音节,这让计算更简洁高效。但在讨论诸如‘无意识偏见’之类的话题时,我会自动切换到英语,因为我最初就是通过英语学习和吸收这些概念的。”

AI模型是概率机器,通过大量示例的训练学习模式,并据此作出预测。然而,非盈利组织艾伦人工智能研究所的研究科学家Luca Soldaini警告说,“我们无法确定模型内部的运行逻辑。对已经部署的AI系统进行这类观察,由于其高度不透明性,是无法支持任何结论的。这也说明了为什么在构建AI系统时保持透明性至关重要。”

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

OpenAI o1模型 语言现象 AI训练
相关文章