原创 SiliconCloud 2024-12-06 17:54 北京
大幅提升了解决复杂问题的能力。
近日,阿里国际数字商务MarcoPolo团队开源了推理模型Marco-o1,不仅关注具有标准答案的学科(例如代码、数学等)领域,而且更强调开放式问题的解决方案,并展现出良好的逻辑推理能力。
今天,硅基流动SiliconCloud上线推理加速版Marco-o1(限时免费),免去开发者的部署门槛,只需在开发应用时轻松调用API,即可带来更高效的用户体验。平台还支持开发者自由对比体验各类大模型,为你的生成式AI应用选择最佳实践。
在线体验
https://cloud.siliconflow.cn/playground/chat/17885302657
API文档
https://docs.siliconflow.cn/api-reference/chat-completions/chat-completions
感受一下SiliconCloud上Marco-o1在推理加速后的效果。
模型表现及亮点
Marco-o1模型采用了思维链(CoT)微调、蒙特卡罗树搜索(MCTS)、反思机制和创新逻辑推理策略等先进技术,以提高AI处理复杂问题的能力。具体而言:
1. 使用超长CoT数据进行微调:通过selfplay+MCTS构建了一批具备反思、改正能力的超长CoT数据。结合其他开源数据一同训练了Marco-o1-CoT。
2. 使用MCTS扩展解空间:在推理阶段,通过使用MCTS+reward引导模型(Marco-o1-MCTS)扩大解空间,输出更优秀的结果。
3. 细粒度解空间扩展:考虑到step级别依然具备较大的搜索细粒度,进一步定义了mini-Step来扩大整个模型的解空间,引导并扩大模型(Marco-o1-MCTS mini-Step)具备输出更优秀答案的可能性。
4. 在翻译任务中应用:创新地使用大型推理模型(LRM)到翻译任务中,对于一些长难句翻译具有良好的效果。也是第一次将推理时扩展应用到机器翻译任务中。
模型性能方面,在MGSM英文和中文数据集上,Marco-o1表现出显著的性能提升,准确率分别提高了6.17%和5.60%。
Token工厂SiliconCloud
Qwen2.5(7B)等20+模型免费用
作为集合顶尖大模型的一站式云服务平台,SiliconCloud致力于为开发者提供极速响应、价格亲民、品类齐全、体验丝滑的模型API。
除了Marco-o1,SiliconCloud已上架包括Fish Speech 1.5、QwQ-32B-Preview、LTX-Video、Qwen2.5-Coder-32B-Instruct、Hunyuan-A52B-Instruct、Llama-3.1-Nemotron-70B-Instruct、Qwen2-VL、InternVL2、Qwen2.5-Math-72B、Qwen2.5-7B/14B/32B/72B、FLUX.1、DeepSeek-V2.5、InternLM2.5-20B-Chat、BCE、BGE、SenseVoice-Small、GLM-4-9B-Chat在内的多种开源大语言模型、图片/视频生成模型、代码/数学模型、向量与重排序模型以及多模态大模型。
其中,Qwen2.5(7B)、Llama3.1(8B)等多个大模型API免费使用,让开发者与产品经理无需担心研发阶段和大规模推广所带来的算力成本,实现“Token 自由”。
近期更新
• SiliconCloud上线Fish Speech 1.5
• SiliconCloud上线Qwen2.5-Coder-32B
• 让3000万用户享受大模型语言学习服务
• SiliconCloud上线视频生成模型LTX-Video
• SD3.5上线ControlNet三件套,BizyAir同步支持
• SiliconCloud更新日志:上线6个模型;支持微调
让超级产品开发者实现“Token自由”
邀好友用SiliconCloud,狂送2000万Token/人
即刻体验QwQ-32B-Preview
siliconflow.cn/zh-cn/siliconcloud
扫码加入用户交流群