差评 03月14日
速度秒杀GPT们10倍,国外的DeepSeek时刻来了?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Inception Labs推出全球首个商业级扩散大模型Mercury,挑战传统Transformer路线。Mercury在生成速度上远超GPT-4o Mini和Claude 3.5 Haiku等模型,且能在普通芯片上实现高速处理。尽管生成质量尚不及顶尖模型,但其效率已令人瞩目。Mercury的出现,为AI界带来了新的可能性,引发了关于大语言模型发展方向的思考。它采用Diffusion模型,无需依赖上下文,从而节省资源,加快生成速度。虽然目前Mercury在自定义提示词下的稳定性和精确度有待提高,但其在多模态生成上的潜力不容忽视。

🚀 Mercury大模型以其惊人的生成速度脱颖而出,在NVIDIA H100芯片上实现每秒超过1000token的处理速度,远超传统大模型。

💡 Mercury采用Diffusion模型,颠覆了Transformer的链式思维,它直接从模糊到清晰地生成结果,无需依赖上下文,从而节省资源,加快生成速度。

🧪 Mercury目前仍有局限性,在自定义提示词下的生成效果和稳定性有待提高,且模型规模相对较小,但已验证Diffusion模型在语言模型上的可行性。

原创 差评君 2025-03-14 00:01 浙江

大模型新路子?



什么?AI 界又整新活了?


这次虽然没像 DeepSeek 、 Manus 们那样搞得人尽皆知,但可能对 AI 界发展的影响还真不小。


 前段时间,有个名不见经传的小公司 Inception Labs 搞了个大新闻,说是开发出了全球首个商业级扩散大模型( dLLM ) Mercury 。


而这个所谓的扩散大模型,可能要会掀起一股浪潮,彻底颠覆大模型 3 年多来的基础路线


人家也实打实放出了数据,在一众测试里, Mercury Coder 基本是一路吊打 GPT-4o Mini 和 Claude 3.5 Haiku ,这些大家都快用烂的模型了。


 而且,这些同台竞技的模型们,还特地专门为生成速度进行过优化,但 Mercury 还是比他们快了多达 10 倍


不仅如此, Mercury 还能在 NVIDIA H100 芯片上,实现每秒超过 1000token 的处理速度,而常见的大模型想要实现这个速度,往往都得用上专门定制的 AI 芯片。


要知道,为了实现更高的 token 处理速度,定制化 AI 芯片几乎成了各个厂商的新战场。


 除了速度超级超级超级快之外,我们也能从 Artificial Analysis 的测试坐标系里看出, Mercury 的生成质量也是杠杠的


虽然目前还不如顶尖的 Claude3.5 Haiku 等,但考虑到它是一目十行的效率,能保持这个生成质量已经是非常哇塞了。


我们也在官方放出的 Mercury Coder Playground 里简单试了几个例子,一顿测试下来发现生成效果确实不错,而且速度真的是极快。


提示词:用HTML5写一个贪吃蛇游戏(Implement the game Snake in HTML5.Include a reset button.Make sure the snake doesn't move too fast .


注意,这里的生成录屏动图并未加速


提示词:用HTML5 , CSS 和 Javascript 写一个扫雷游戏( Write minesweeper in HTML5 , CSS , and Javascript.Include a timer and a banner that declares the end of the game .)


提示词:用 HTML5 做一个 Pong 游戏( Create a pong game in HTML5.


可能不少差友看到这估计决定,这也没多牛啊,说什么 AI 界可能要变天了?


Mercury 的厉害的点倒不是它的实际效果有多棒,更重要的是它给 AI 界带来了一众新可能:谁说大语言模型就一定要走 Transformer 的路线?


在这个 AI 时代, Transformer 和 Diffusion 大家估计都听得耳朵起茧子了,一会是 Transformer 单干,一会是 Diffusion 单飞,又或者是两者一起合作。


但本质上来说,这两者其实代表了 AI 的两个不同进化方向,甚至可以说,Transformer 和 Diffusion 的 “ 思维 ” 机制不同


Transformer 是“ 典型 人类的链式思维,它有一个自回归的属性,就是它有个先后的概念,你得先生成了前面的结果,才能想出后面的玩意儿。


所以我们现在看到的 AI 生成,都是逐字逐句,从上从下一点点长出来的。


就像这样( 这还是加速过的生成速度 )


 而 Diffusion ,则是反直觉的,直接从模糊去噪从而到清晰的过程


就是你问他问题,他不会有整理逻辑,按 1 、 2 、 3 、 4 ……步骤回答你的想法,而是脑子直接想好了所有答案雏形,但这些答案全都是模糊不清的,然后一步步把所有答案一起变清晰,直到生成结果。


用生活里的一个最常见的例子就是去配眼镜,当你拿掉眼镜看东西的时候,一整片都朦胧不清,但你确实都看到了,随着一片片镜片加上去,最终你看清了每一个字。


所以 Mercury 生成的结果都是一大片模糊的乱码,然后一顿 quickly quickly biu biu biu , ber 得一下就全搞定了。


就像这样


关于这俩的效果对比,我感觉历史上曾经有一个著名发布会上,有人曾用过更直观的对比,可能更形象化帮助大家理解。


CPU 就好比如今的 Transformer 


GPU 就好比如今的 Diffusion 


其实光从我们这么简单的描述看起来,大家也能明白, Transformer 的确是更符合大家逻辑的思维方式,所以在大语言模型刚爆红的时候,基本就是 Transformer 一个人勇闯天涯。


 但逐渐的, Transformer 开始展露自己的不足。


其中最让人头疼的就是, Transformer 的注意力机制看起来很优秀的背后,是计算复杂度(计算复杂度公式为 O ( n ² d )( n 为序列长度, d 为特征维度 ) )指数级别增长。


计算复杂度的爆炸增长带了多方面的制约,比如模型推理速度显著下降,在长文本、视频等领域,生成速度显然无法满足实际需求。


进一步的,复杂度不断升高,所需要的硬件资源也同样指数级增长,这种硬件需求阻止了 AI 真正走进大家生活。


 所以一直以来,业界都在想着法地缓解 Transformer 模型的计算复杂度


像通过量化、蒸馏、压缩模型的 DeepSeek 能够爆火出圈,其实也是建立在这种迫切需求上。


那 Mercury 的出现,似乎也在提醒大家,如果降低 Transformer 的计算复杂度太难的话,要不试试新路子?


而且 Mercury 背后的 Diffusion 路线,大家并不陌生。


比如早期爆红的 stable Diffusion , Midjournery 、 DALL-E 2 里,都看到了 Diffusion 模型的应用。


甚至还出现了像是 OpenAI 的 sora 模型,就是利用了 Diffusion Transformer ( DiTs )这种 Transformer 和 Diffusion 混合双打模型。


 虽然理想很美好,但 Diffusion 此前几乎都被各路人马判了死刑,因为他们觉得这货驾驭不了语言模型


因为 Diffusion 的特点是没了自回归,不用依赖上下文,从而可以节省资源,加快生成速度。


但这么一来,生成精度有点难以把握,就像现在文生图、文生视频的各种模型,依旧难以控制手部、吃面条、文字等高精度的生成。


可这次 Mercury 的突破性成果,的确也第一次向大家验证了, Diffusion 也能干 Transformer 的活。


不过可惜的是,目前 Mercury 并没有公开任何技术文档,我们无法进一步得知它是如何搞定生成内容质量难关的。


但我们从它挑的对手比如 Claude3.5 Haiku 、 GPT4-omini 、 Qwen2.5 coder 7B 、 DeepSeek V2 lite 等等这些袖珍版大模型里,也能看出来,显然最强大的 Diffusion 语言模型 Mercury 也还没法做得特别大。


甚至经过我们测试发现,除了官方推荐的提示词生成效果比较精准以外,如果用一些自定义提示词,它的出错概率就高得有点夸张了。


而且生成的稳定性也相当一般,经常第一次生成效果还不错,再测试一次结果反而不会了。


提示词:用 HTML 画出太阳系的模拟动画( Use HTML to write an animation of the solar system simulation operation 


 但毫无疑问, Mercury 的成果是了不起的,特别在考虑到 Diffusion 在多模态生成上的强势地位,也让人不禁想象,如果 Diffusion 的路线才是 AI 大模型更正确的道路( 好像也不是不可能吧 ),未来的联动进化好像更水到渠成些。


前不久,差评君刚看了一部名为《 降临 》的电影,里面的外星人就不是按照人类这样 1 、 2 、 3 、 4 ……的链式思维逻辑,不同的思维方式显然会带来更多的可能性。


那问题来了,谁说 AI 就得要像人类一样思考呢?对他们来说,是不是 Diffusion 的思考方式更符合 “ 硅基生命 ” 的属性呢?


当然,这些都是差评君的瞎瘠薄扯淡,不过有意思的是, Mercury 既是太阳系的水星,也是罗马神话中的信使,他们俩的特点就是跑得飞快,而在占星学里,它又代表着人的思维方式和沟通能力。


我们也不妨期待, Mercury 的出现,能给 AI 带来新的路子。



撰文:八戒

编辑江江 & 面线

美编:萱萱

图片、资料来源:

X.com

Mercury官网

OpenAI:Generating videos on Sora

techcrunch:Inception emerges from stealth with a new type of AI model

AimResearch:What Is a Diffusion LLM and Why Does It Matter?

知乎:如何评价Inception Lab的扩散大语言模型Mercury coder?


阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

扩散大模型 Mercury Diffusion模型
相关文章