1、预训练在数据见顶的基础上,使用MuonClip再度提升基座模型上限 2、后训练阶段新的合成数据使用+奖励模型构建,显著提升模型使用工具、Agentic、Coding上的能力 #启示 1、数据不够,算法来凑,基座模型还可以进步(MuonClip优化器仅是一种比较小的算法优化) 2、有效的合成数据+足够多轮的RL训练,将显著提升通用模型的综合能力 #算力 通用模型由ChatBot向Agent对齐时,推理算力需求将指数级提升 尚未到达通用模型的天花板,接下来发布的国产模型能持续提升 建议关注: 通