阿里云百炼最新发布了Qwen2.5-Turbo模型,该模型支持100万超长上下文,在多个长文本评测集中的性能表现超越GPT-4。它可以应用于长篇小说理解、代码助手、论文阅读等场景,一次性处理大量文本和代码。Qwen2.5-Turbo在长文本检索、长文本评测集RULER等任务中表现出色,并在部分真实场景的长文本任务中超越GPT-4o-mini。此外,该模型还优化了推理速度,将处理100万tokens上下文时的首字返回时间大幅缩短。未来,阿里云百炼将继续探索长序列人类偏好对齐,优化推理效率,并研发更大、更强的长文本模型。
🚀 **支持100万超长上下文:** Qwen2.5-Turbo模型能够处理相当于100万个英文单词或150万个汉字的超长文本,适用于长篇小说、代码、论文等场景。
🥇 **性能超越GPT-4:** 在多个长文本评测集,例如Passkey Retrieval、RULER等,Qwen2.5-Turbo模型的性能表现均超越了GPT-4,并在LV-Eval、LongBench-Chat等真实场景的长文本任务中超越GPT-4o-mini。
🚄 **推理速度大幅提升:** 通过稀疏注意力机制,Qwen2.5-Turbo模型将处理100万tokens上下文时的首字返回时间从4.9分钟降低到68秒,速度提升了4.3倍。
💰 **低成本高性价比:** 阿里云百炼平台提供Qwen2.5-Turbo API,百万tokens仅需0.3元,并免费赠送1000万tokens额度,降低用户使用成本。
💡 **持续优化与研发:** 阿里云百炼团队将持续优化推理效率,并研发更大、更强的长文本模型,以应对长文本任务中的挑战。
快科技11月20日消息,阿里云百炼宣布,最新的Qwen2.5-Turbo模型已在平台上线,即日起所有用户可在阿里云百炼调用Qwen2.5-Turbo API,百万tokens仅需0.3元,同时还免费为用户赠送1000万tokens额度。

该模型支持100万超长上下文,相当于100万个英文单词或150万个汉字,并且在多个长文本评测集中的性能表现超越GPT-4。
据介绍,Qwen2.5-Turbo可应用于长篇小说深入理解、仓库级别代码助手、多篇论文阅读等场景,可一次性处理10本长篇小说,150小时的演讲稿,3万行代码。

具体来看,Qwen2.5-Turbo在1M长度的超长文本检索(Passkey Retrieval)任务中的准确率可达到100%,在长文本评测集RULER上获得93.1分,超越GPT-4。
在LV-Eval、LongBench-Chat等更加接近真实场景的长文本任务中,Qwen2.5-Turbo在多数维度超越了GPT-4o-mini。

不仅是长文本,在MMU、LiveBench等短文本基准上Qwen2.5-Turbo的表现也非常优秀,在大部分任务上的表现显著超越之前上下文长度为1M tokens的开源模型。

在推理速度方面,团队利用稀疏注意力机制将注意力部分的计算量压缩了约12.5倍,将处理1M tokens上下文时的首字返回时间从4.9分钟降低到68秒,速度大幅提升了4.3倍。
不过通义千问团队也表示,长文本任务处理依然存在诸多挑战,未来将进一步探索长序列人类偏好对齐,优化推理效率以减少运算时间,并继续研发更大、更强的长文本模型。