index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html
![]()
360与北京大学联合研发的Tiny-R1-32B-Preview推理模型正式推出,以5%参数逼近DeepSeek-R1-671B性能,在多个领域表现出色,且践行开源承诺。
🎯Tiny-R1-32B-Preview以小模型实现大能量,性能逼近DeepSeek-R1-671B。
📈在数学、编程、科学领域全面领先最佳开源70B模型。
💡采用「分治-融合」策略,融合多种技术训练而成。
🌐践行开源精神,将公开技术报告等推动技术普惠。
2025年2月24日,由360与北京大学联合研发的中等量级推理模型Tiny-R1-32B-Preview正式亮相,仅以5%参数,逼近DeepSeek-R1-671B的性能。数学领域:以78.1分(AIME 2024评测)逼近原版R1模型(79.8分),远超DeepSeek-R1-Distill-Llama-70B(70.0分);综合性能:在编程(LiveCodeBench 61.6分)、科学(GPQA-Diamond 65.0分)领域全面领先最佳开源70B模型DeepSeek-R1-Distill-Llama-70B;效率跃迁:仅需5%参数量,性能达原版R1的95%以上,推理成本大幅降低。
基于DeepSeek-R1生成海量领域数据,分别训练数学、编程、科学三大垂直模型;
通过Arcee团队Mergekit工具智能融合,突破单一模型性能上限,实现多任务均衡优化。
模型仓库:https://huggingface.co/qihoo360/TinyR1-32B-Preview
研发团队表示:「Tiny-R1-32B-Preview的成功是站在了巨人的肩膀上,受益于开源社区精神,结合DeepSeek-R1蒸馏、DeepSeek-R1-Distill-32B增量训练、模型融合等技术,使用360-LLaMA-Factory训练而来,未来我们也将持续探索更轻量、更强大的模型,推动AI技术普惠化进程,并回馈开源社区。」360 团队: Lin Sun, Guangxiang Zhao, Xiaoqi Jian, Weihong Lin, Yongfu Zhu, Change Jia, Linglin Zhang, Jinzhu Wu, Sai-er Hu, Xiangzheng Zhang北大团队: Yuhan Wu, Zihan Jiang, Wenrui Liu, Junting Zhou, Bin Cui, Tong Yanghttps://huggingface.co/qihoo360/TinyR1-32B-Preview 内容中包含的图片若涉及版权问题,请及时与我们联系删除