富途牛牛头条 01月29日
阿里夜盤再漲逾2%,隔夜飆升近7%,通義千問Qwen 2.5-Max超大規模MoE模型發佈,號稱優於Deepseek V3等競品
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

阿里云新年发布通义千问Qwen 2.5-Max超大规模MoE模型,可通过API或Qwen Chat体验。该模型使用超20万亿token预训练数据,并经精心后训练。在指令模型对比中,Qwen 2.5-Max在多项基准测试中超越DeepSeek V3,并在MMLU-Pro等评估中表现出色。基座模型对比中,Qwen 2.5-Max在多数测试中也展现出显著优势,与DeepSeek V3、Llama-3.1-405B和Qwen2.5-72B等开源模型相比,性能领先。阿里云表示,随着后训练技术进步,下一版本模型将更强大。

🚀阿里云发布通义千问Qwen 2.5-Max模型,可通过API或Qwen Chat体验,提供对话、artifacts和搜索等功能。

📊该模型基于超20万亿token的预训练数据和精心设计的后训练方案,在多项基准测试中性能超越DeepSeek V3,并在MMLU-Pro等评估中展现出竞争优势。

🥇在基座模型对比中,Qwen 2.5-Max在多数基准测试中表现出显著优势,与DeepSeek V3、Llama-3.1-405B等开源模型相比,性能领先。

🔮阿里云表示,随着后训练技术的进步,下一版本的Qwen 2.5-Max将会达到更高的水平。

新年之际, 阿里巴巴 (BABA.US) 旗下阿里云公布了其全新的通义千问 Qwen 2.5-Max 超大规模 MoE 模型,大家可以通过 API 的方式进行访问,也可以登录 Qwen Chat 进行体验,例如直接与模型对话,或者使用 artifacts、搜索等功能。

截至发稿,阿里夜盘再涨逾2%,隔夜飙升近7%。

据介绍,通义千问 Qwen 2.5-Max 使用超过 20 万亿 token 的预训练数据及精心设计的后训练方案进行训练。

性能

阿里云直接对比了指令模型的性能表现(IT之家注:指令模型即我们平常使用的可以直接对话的模型)。对比对象包括 DeepSeek V3、GPT-4o 和 Claude-3.5-Sonnet,结果如下:

在 Arena-Hard、LiveBench、LiveCodeBench 和 GPQA-Diamond 等基准测试中,Qwen2.5-Max 的表现超越了 DeepSeek V3,同时在 MMLU-Pro 等其他评估中也展现出了极具竞争力的成绩。

在基座模型的对比中,由于无法访问 GPT-4o 和 Claude-3.5-Sonnet 等闭源模型的基座模型,阿里云将 Qwen2.5-Max 与目前领先的开源 MoE 模型 DeepSeek V3、最大的开源稠密模型 Llama-3.1-405B,以及同样位列开源稠密模型前列的 Qwen2.5-72B 进行了对比。对比结果如下图所示:

我们的基座模型在大多数基准测试中都展现出了显著的优势。我们相信,随着后训练技术的不断进步,下一个版本的 Qwen2.5-Max 将会达到更高的水平。

富途5x24小时美股交易,方便随时弹入弹出,快来体验吧>>

编辑/danial

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

阿里云 通义千问 Qwen 2.5-Max MoE模型 AI模型
相关文章