智源社区 02月12日
推理模型新路线开源!与DeepSeek截然不同,抛弃思维链不用人类语言思考
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

新型开源推理大模型Huginn,采用与Deepseek-R1/OpenAI o1截然不同的架构,抛弃了长思维链和人类语言,直接在高维潜空间进行隐藏状态推理。该模型能自适应地调整计算量,以便更长时间地思考。通过可视化,研究人员观察到模型对关键token的旋转和收敛,表明它正在以新的方式学习利用潜空间的高维属性进行推理。这种新方法不需要专门的训练数据,可以在小上下文窗口下工作,并捕捉难以用语言表达的推理类型。35亿参数的模型训练量相当于传统32B模型,未来或可借鉴其潜空间思考的推理能力。

🚀新架构:Huginn模型采用Decoder-only Transformer架构,分为Prelude(嵌入)、Recurrent Block(循环计算)和Coda(解码)三段,通过循环模块在潜空间中修改状态,实现高效推理。

💡潜空间推理:模型在训练期间为每个输入序列分配随机迭代次数,并在潜空间中进行推理,对关键token如数字“3”形成复杂的圆形轨道,对非关键token则无明显变化,表明模型独立学习利用高维潜空间进行推理。

💰训练与性能:Huginn模型使用8个AMD GPU节点(4096块GPU)训练,尽管只有35亿参数,但由于循环模块的计算,其训练量相当于传统32B模型,且性能可与7B参数模型相媲美。

🌐优势与应用:该模型不需要长思维链推理,能在小上下文窗口下工作,捕捉难以用语言表达的推理,且不需要专门的训练数据,为AI推理提供了新的可能性。

开源推理大模型新架构来了,采用与Deepseek-R1/OpenAI o1截然不同的路线

抛弃长思维链和人类的语言,直接在连续的高维潜空间用隐藏状态推理,可自适应地花费更多计算来思考更长时间。

例如问题:Claire每天早餐都会做一个3个鸡蛋的煎蛋卷。她在4周内会吃多少个鸡蛋?

从新模型Huginn的思考轨迹可视化中,可以看到对数字3等重要token不断旋转,最终收敛到正确答案对应的位置,但在不关键的人物名字Cla-ire上没有这个现象。

除旋转之外还能观察到更多丰富的几何模式,研究团队认为这表明该模型正在独立学习利用潜空间的高维性质以新的方式做推理

由于不使用长思维链推理范式,新方法还有几个额外优势:

    不需要任何专门的训练数据

    可以在很小的上下文窗口下工作

    能捕捉到难以用语言表达的推理类型

研究来自马克思普朗克研究所、马里兰大学等团队,他们使用美国橡树岭实验室的Frontier超算完成训练实验,用到8个AMD GPU节点(4096块GPU),没有使用英伟达体系。

新架构给Transformer加入循环模块

新架构仍然围绕Decoder-only的Transformer block构建,但分为三段:

    Prelude(前奏):使用多个transformer层将输入数据嵌入到潜空间中

    Recurrent Block(循环块):循环计算单元,在潜在空间中修改状态

    Coda(尾声):从潜空间解码,并包含模型的预测头

在训练期间为每个输入序列分配随机数量的迭代次数。同时为了在训练时保持较低的计算和内存,只反向传播循环单元的最后k次迭代。

研究中可视化了模型在潜在空间中的推理轨迹,发现了这些有趣现象:

    对一些简单token,模型的隐状态会快速收敛到稳定点

    但对一些关键token,如数学问题中的数字”3”,隐状态会形成复杂的圆形轨道

    还有一些token的隐状态会沿特定方向”滑动”,可能用于计数循环次数

论文一作Jonas Geiping透露,他们的算力只够一次大规模训练,也就是最后发布的3.5B参数的Huginn模型,在800B tokens数据上预训练。

没有post/mid-training过程,但可以与7B参数、在2-3T tokens数据上训练的开源模型能力相匹配。

另外算上循环模块中的计算,3.5B参数的模型训练时的计算量相当于传统的32B模型。

有人猜测OpenAI o3使用了类似的方法,通过循环来达到近似无限上下文,并且控制高中低三种推理时间设置。

有OpenAI研究员已经注意到这个工作,把论文读完了还在线捉bug。

也已经有人准备根据DeepSeek-R1开源的方法尝试新思路,同时保留潜空间思考的推理能力,和CoT思考的可读性。

论文:
https://arxiv.org/abs/2502.05171
模型:
https://huggingface.co/tomg-group-umd/huginn-0125
代码:
https://github.com/seal-rg/recurrent-pretraining

参考链接:
[1]
https://x.com/tomgoldsteincs/status/1888980680790393085
[2]https://x.com/jonasgeiping/status/1888985929727037514

评选报名2025年值得关注的AIGC企业&产品

下一个AI“国产之光”将会是谁?

本次评选结果将于4月中国AIGC产业峰会上公布,欢迎参与!

一键关注 ? 点亮星标

科技前沿进展每日见


一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!


内容中包含的图片若涉及版权问题,请及时与我们联系删除

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

开源推理大模型 潜空间推理 Huginn Transformer架构 AI模型
相关文章