硅基流动 2024年12月06日
SiliconCloud上线Marco-o1:面向开放式问题的推理模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

阿里国际数字商务团队开源推理模型Marco-o1,硅基流动SiliconCloud上线推理加速版,该模型采用多种先进技术提升处理复杂问题能力,平台还集合多种大模型,提供免费使用及良好用户体验。

🎯Marco-o1模型采用多种先进技术,如思维链微调、蒙特卡罗树搜索等,提高处理复杂问题能力。

💡SiliconCloud上线推理加速版Marco-o1,免去开发者部署门槛,可轻松调用API。

🌟平台集合多种大模型,如Qwen2.5等,多个大模型API免费使用,实现‘Token自由’。

原创 SiliconCloud 2024-12-06 17:54 北京

大幅提升了解决复杂问题的能力。

近日,阿里国际数字商务MarcoPolo团队开源了推理模型Marco-o1,不仅关注具有标准答案的学科(例如代码、数学等)领域,而且更强调开放式问题的解决方案,并展现出良好的逻辑推理能力。 


今天,硅基流动SiliconCloud上线推理加速版Marco-o1(限时免费),免去开发者的部署门槛,只需在开发应用时轻松调用API,即可带来更高效的用户体验。平台还支持开发者自由对比体验各类大模型,为你的生成式AI应用选择最佳实践。

 

在线体验 

https://cloud.siliconflow.cn/playground/chat/17885302657


API文档 
https://docs.siliconflow.cn/api-reference/chat-completions/chat-completions


感受一下SiliconCloud上Marco-o1在推理加速后的效果。


模型表现及亮点


Marco-o1模型采用了思维链(CoT)微调、蒙特卡罗树搜索(MCTS)、反思机制和创新逻辑推理策略等先进技术,以提高AI处理复杂问题的能力。具体而言: 

 

1. 使用超长CoT数据进行微调:通过selfplay+MCTS构建了一批具备反思、改正能力的超长CoT数据。结合其他开源数据一同训练了Marco-o1-CoT。

 

2. 使用MCTS扩展解空间:在推理阶段,通过使用MCTS+reward引导模型(Marco-o1-MCTS)扩大解空间,输出更优秀的结果。

 

3. 细粒度解空间扩展:考虑到step级别依然具备较大的搜索细粒度,进一步定义了mini-Step来扩大整个模型的解空间,引导并扩大模型(Marco-o1-MCTS mini-Step)具备输出更优秀答案的可能性。

 

4. 在翻译任务中应用:创新地使用大型推理模型(LRM)到翻译任务中,对于一些长难句翻译具有良好的效果。也是第一次将推理时扩展应用到机器翻译任务中。 

模型性能方面,在MGSM英文和中文数据集上,Marco-o1表现出显著的性能提升,准确率分别提高了6.17%和5.60%。 

Token工厂SiliconCloud
Qwen2.5(7B)等20+模型免费用


作为集合顶尖大模型的一站式云服务平台,SiliconCloud致力于为开发者提供极速响应、价格亲民、品类齐全、体验丝滑的模型API。
除了Marco-o1,SiliconCloud已上架包括Fish Speech 1.5QwQ-32B-PreviewLTX-VideoQwen2.5-Coder-32B-InstructHunyuan-A52B-InstructLlama-3.1-Nemotron-70B-InstructQwen2-VL、InternVL2Qwen2.5-Math-72BQwen2.5-7B/14B/32B/72BFLUX.1DeepSeek-V2.5InternLM2.5-20B-ChatBCE、BGESenseVoice-SmallGLM-4-9B-Chat在内的多种开源大语言模型、图片/视频生成模型、代码/数学模型、向量与重排序模型以及多模态大模型。   

其中,Qwen2.5(7B)、Llama3.1(8B)等多个大模型API免费使用,让开发者与产品经理无需担心研发阶段和大规模推广所带来的算力成本,实现“Token 自由”。 

近期更新 

 SiliconCloud上线Fish Speech 1.5
 SiliconCloud上线Qwen2.5-Coder-32B 
 让3000万用户享受大模型语言学习服务
 SiliconCloud上线视频生成模型LTX-Video
 SD3.5上线ControlNet三件套,BizyAir同步支持
 SiliconCloud更新日志:上线6个模型;支持微调

让超级产品开发者实现“Token自由”

邀好友用SiliconCloud
狂送2000万Token/人

即刻体验QwQ-32B-Preview
siliconflow.cn/zh-cn/siliconcloud
扫码加入用户交流群

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

SiliconCloud Marco-o1 大模型 推理加速
相关文章