oschina.net 7小时前
阿里通义 Qwen3 开源系列模型支持 100 万 token 超长上下文 
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

阿里Qwen团队发布两款升级模型,支持高达100万token的超长上下文处理,采用DCA和MInference两项关键技术。

阿里通义Qwen团队宣布,Qwen3-30B-A3B-2507 和 Qwen3-235B-A22B-2507 系列模型现已支持高达100万token的超长上下文处理。 此次升级集成了两项关键技术:Dual Chunk Attention (DCA) 和 MInference。 DCA 是一种长度外推方法,能将长序列分割成可管理的小块同时保持全局连贯性;MInference 则是一种稀疏注意力机制,通过聚...

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

阿里 Qwen模型 超长上下文 DCA MInference
相关文章