Cnbeta 01月15日
OpenAI的A推理模型有时会用中文"思考" 但没人知道为什么
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

OpenAI的推理模型o1在处理英语问题时,有时会用中文等其他语言进行“思考”,这一现象引发了广泛关注。尽管最终答案仍为英语,但中间推理步骤却使用了其他语言,原因尚不明确。一种理论认为,这是由于模型在训练时使用了大量中文数据集,尤其是第三方数据标签服务可能主要来自中国。但也有专家认为,模型可能只是选择它认为最高效的语言来完成任务,并非特定于中文。这种现象也揭示了AI模型训练中数据偏差和不透明性的问题,需要进一步研究和透明化。

🤔 OpenAI的推理模型o1在处理英语问题时,会出现中间推理步骤使用中文或其他语言的现象,即使最终答案是英语,这引发了人们对其工作机制的困惑。

🇨🇳 一种解释是,模型可能是在包含大量中文的数据集上训练的,特别是有专家指出,为了获取科学、数学和编码方面的博士级推理数据,包括OpenAI在内的公司使用了许多来自中国的第三方数据标签服务。

🗣️ 另一种观点认为,模型可能并非真的“思考”中文,而是出于效率考虑,选择它认为最适合解决问题的语言,因为对模型来说,语言只是一种标记,并不具备人类的认知。

⚙️ 此外,数据标记和标记方式的偏差也可能影响模型的行为,例如,某些语言的标记可能导致模型在特定任务中更倾向于使用该语言进行推理,这凸显了AI系统训练中数据偏差的重要性。

🧐 这种现象也揭示了AI模型的不透明性,我们无法完全了解其内部工作原理,这使得对已部署AI系统的观察难以得到证实,强调了AI系统构建过程透明度的重要性。

OpenAI 发布其首个"推理"人工智能模型 o1 后不久,人们开始注意到一个奇怪的现象。 该模型有时会开始用中文、波斯语或其他语言进行"思考"--即使被问到的是英语问题。

如果要解决一个问题,例如"'草莓'这个词有几个 R? - o1 会开始"思考",通过一系列推理步骤得出答案。 如果问题是用英语写的,那么 o1 的最终回答也将是英语。 但在得出结论之前,模型会用另一种语言执行一些步骤。

Reddit 上的一位用户说:"[O1] 中途随机开始用中文思考。"

另一位用户在 X 上的帖子中问道:"为什么 [o1] 突然开始用中文思考?对话的任何部分(5 条以上的信息)都没有使用中文。"

OpenAI 还没有对 o1 的奇怪行为做出解释,甚至也没有承认。 那么到底是怎么回事呢?人工智能专家也不清楚。 但他们有一些理论。

包括 Hugging Face 首席执行官克莱门特-德朗格(Clément Delangue)在内的一些人在 X 上暗示,像 o1 这样的推理模型是在包含大量汉字的数据集上训练出来的。 Google DeepMind 的研究员 Ted Xiao 声称,包括 OpenAI 在内的公司都使用第三方中文数据标注服务,o1 转用中文是"中文语言对推理的影响"的一个例子。

"[像] OpenAI 和 Anthropic 这样的实验室利用[第三方]数据标签服务来获取科学、数学和编码方面的博士级推理数据,"肖在 X 上的一篇帖子中写道。"由于专家劳动力的可用性和成本原因,这些数据提供商很多都在中国。"

标签也称为标记或注释,有助于模型在训练过程中理解和解释数据。 例如,用于训练图像识别模型的标签可以是物体周围的标记,也可以是对图像中描述的每个人、地点或物体的说明。

研究表明,有偏差的标签会产生有偏差的模型。 例如,平均注释者更有可能将非裔美国人白话英语(AAVE)(一些美国黑人使用的非正式语法)中的短语标注为有毒,从而导致根据标签训练的人工智能毒性检测器将非裔美国人白话英语视为毒性过高。

不过,其他专家并不相信 o1 中文数据标签的假设。 他们指出,o1 同样有可能在找出解决方案的过程中切换到印地语、泰语或中文以外的语言。

这些专家表示,o1 和其他推理模型可能只是使用他们认为最有效的语言来实现目标(或幻觉)。

阿尔伯塔大学的人工智能研究员兼助理教授马修-古兹迪尔(Matthew Guzdial)认为:"模型不知道语言是什么,也不知道语言是不同的。对它来说,一切都只是文字。"

事实上,模型并不直接处理文字。 它们使用  标记来代替。 标记可以是单词,如"fantastic"。 也可以是音节,如"fan"、"tas"和"tic"。 它们甚至可以是单词中的单个字符,如"f"、"a"、"n"、"t"、"a"、"s"、"t"、"i"、"c"。

与标注一样,标记也会带来偏差。 例如,尽管并非所有语言都使用空格来分隔单词,但许多单词到标记的翻译器会认为句子中的空格表示一个新单词。

人工智能初创公司Hugging Face的软件工程师王铁真同意古兹迪尔的观点,即推理模型的语言不一致性可能是由模型在训练过程中产生的联想造成的。

"例如,我更喜欢用中文做数学题,因为每个数字都只有一个音节,这样计算起来既简洁又高效。 但当涉及到无意识偏见等话题时,我会自动切换到英语,主要是因为这是我最初学习和吸收这些观点的地方。"

王的理论似是而非。 毕竟,模型是一种概率机器。 通过对许多例子的训练,它们可以学习模式来进行预测,比如电子邮件中"给谁"通常会出现在"可能涉及"之前。

但非营利机构艾伦人工智能研究所(Allen Institute for AI)的研究科学家卢卡-索尔达尼(Luca Soldaini)提醒说,我们还不能确定。"他表示,"由于这些模型的不透明性,这种对已部署的人工智能系统的观察是不可能得到支持的。"这就是为什么人工智能系统构建过程中的透明度至关重要的众多案例之一。"

由于 OpenAI 没有给出答案,我们只能思考为什么 o1 会用法语思考歌曲,而用普通话思考合成生物学。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

OpenAI 推理模型 数据偏差 AI透明度 语言模型
相关文章