月之暗面 Kimi 01月23日
k1.5 新模型登场:Kimi 如何做到满血版多模态o1水平(附技术报告)
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Kimi推出全新SOTA模型k1.5多模态思考模型,实现多模态推理和通用推理能力的升级,并首次公开模型训练技术报告,该模型擅长深度推理,将陆续灰度上线。

Kimi连续三个月带来k系列强化学习模型重磅升级,k1.5多模态思考模型实现SOTA级别多模态推理和通用推理能力。

k1.5模型训练的关键要素包括长上下文扩展、改进的策略优化、简洁的框架及多模态能力。

k1.5多模态思考模型预览版将陆续灰度上线Kimi.com网站和智能助手app,擅长深度推理,可解决多种难题。

Kimi智能助手 2025-01-20 21:53 北京

分享 o1 级别多模态推理模型的技术实践


「There is no expedient to which a man will not resort to avoid the real labor of thinking. 人为了不必费力思考,任何取巧方法都不会放过。」

 乔舒亚·雷诺兹爵士


今天分享两件事:

1. Kimi 全新 SOTA 模型—— k1.5 多模态思考模型来了 

2. Kimi 首次公开模型训练技术报告 

一、k1.5多模态思考模型

这是继去年 11 月发布 k0-math 数学模型,12月发布 k1 视觉思考模型之后,Kimi 连续第三个月带来 k 系列强化学习模型的重磅升级。

从基准测试成绩看,k1.5 多模态思考模型实现了 SOTA (state-of-the-art)级别的多模态推理和通用推理能力。

在 short-CoT 模式下,Kimi k1.5 的数学、代码、视觉多模态和通用能力,大幅超越了全球范围内短思考 SOTA 模型 GPT-4o 和 Claude 3.5 Sonnet 的水平,领先达到 550%。

在 long-CoT 模式下,Kimi k1.5 的数学、代码、多模态推理能力,也达到长思考 SOTA 模型 OpenAI o1 正式版的水平。这应该是全球范围内,OpenAI 之外的公司首次实现 o1 正式版的多模态推理性能。

2025 年,Kimi 会继续沿着路线图,加速升级 k 系列强化学习模型,带来更多模态、更多领域的能力和更强的通用能力。

二、SOTA模型是如何训练出来的

伴随着 k1.5 多模态思考模型的发布,Kimi 技术团队也第一次准备了详细的技术报告,记录和分享新技术范式下的模型训练技术探索之路:《Kimi k1.5:借助大语言模型实现强化学习的 Scaling》(github 链接:https://github.com/MoonshotAI/kimi-k1.5)。

通过这份技术报告,我们可以了解到关于 k1.5 模型设计和训练的几个关键要素:

此外,我们提出了有效的long2short方法,利用 Long-CoT 技术来改进 Short-CoT 模型,在短链思维推理方面取得了SOTA成绩——例如,在AIME上达到60.8分,MATH500上达到94.6分,LiveCodeBench上达到47.3分——大幅超越了现有的短链思维模型,如GPT-4和Claude Sonnet 3.5(提升幅度高达550%)。

希望更多技术人才可以通过这份技术报告,了解到 Kimi 在模型训练方面所做的部分工作。如果感兴趣的话,欢迎加入我们,一起登月。

k1.5 多模态思考模型的预览版将陆续灰度上线 Kimi.com 网站和最新版本的 Kimi 智能助手 app。如果你发现了如下图所示的模型切换按钮,就可以尝试用起来了。

k1.5 多模态思考模型,擅长深度推理,可以帮助我们解锁更多更难的事情。当你遇到难解的代码问题、数学问题、工作问题,都可以找 k1.5 模型来帮忙。Kimi 期待与你一起探索更大的世界。

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Kimi智能助手 多模态推理 模型训练 深度推理
相关文章