k1.5 新模型登场:Kimi 如何做到满血版多模态o1水平(附技术报告)
今天是让人激动的一天。
“呵呵,那个AI和猴子一样聪明呢,真逗”
“我擦,发生了什么?”
我们要越来越习惯在可以用RL的地方很快迎来AI超越人类的“李世石时刻”。
看到Kimi k1.5这一组数据的时候,我的第一反应是:we are running out of benchmarks。在 short-CoT 模式下,Kimi k1.5 的数学、代码、视觉多模态和通用能力,大幅超越了全球范围内短思考 SOTA 模型 GPT-4o 和 Claude 3.5 Sonnet 的水平。这在一年前绝对是难以想象的。同时k1.5在Long-CoT下的表现,更加让我们看到There is no wall,RL还可以走很远。
是更多DAU和时长,还是更多智能?新时代需要新的范式,我们始终相信一小群对技术充满热情的年轻人可能改变世界。我们也始终相信AI对人类的意义不止于打电话和虚拟贴贴,把能量更高效变成生产力普惠人类,应该才是这个游戏的通关答案。