AI前线 03月02日
腾讯推出新一代快思考模型混元 Turbo S:主打秒回、低成本,将在腾讯元宝灰度上线
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

腾讯发布混元自研的快思考模型Turbo S,能实现秒回,部署成本大幅下降,在多个领域表现出色,未来将成为系列衍生模型核心基座,且提供免费试用,同时探讨了AI对工程师就业的影响。

🌊腾讯混元Turbo S实现秒回,吐字速度提升一倍,首字时延降低44%

💡通过模型架构创新,部署成本大幅下降,推动大模型应用门槛降低

🎯采用Hybrid-Mamba-Transformer融合模式,发挥Mamba和Transformer优势

🚀未来将成为腾讯混元系列衍生模型的核心基座,已有推理模型上线

2025-03-01 13:30 北京

Turbo S未来将成为腾讯混元系列衍生模型的核心基座~

作者 | 褚杏娟

2 月 27 日,腾讯混元自研的快思考模型 Turbo S 正式发布。

据悉,区别于 Deepseek R1、混元 T1 等需要“想一下再回复”的慢思考模型,混元 Turbo S 能够实现“秒回”,吐字速度提升一倍,首字时延降低 44%,另外,通过模型架构创新,Turbo S 部署成本也大幅下降,持续推动大模型应用门槛降低。

在业界通用的多个公开 Benchmark 上,腾讯混元 Turbo S 在知识、数学、推理等多个领域展现出对标 DeepSeek V3、GPT 4o、Claude3.5 等业界领先模型的效果表现。

表格中,其它模型的评测指标来自官方评测结果,官方评测结果中不包含部分来自混元内部评测平台

据介绍,通过长短思维链融合,腾讯混元 Turbo S 在保持文科类问题快思考体验的同时,基于自研混元 T1 慢思考模型合成的长思维链数据,显著改进理科推理能力,实现模型整体效果提升。

架构方面,混元 Turbo S 采用了 Hybrid-Mamba-Transformer 融合模式,降低了传统 Transformer 结构的计算复杂度,减少了 KV-Cache 缓存占用,实现训练和推理成本的下降。新的融合模式也突破了传统纯 Transformer 结构大模型面临的长文训练和推理成本高的难题,一方面发挥了 Mamba 高效处理长序列的能力,也保留 Transformer 擅于捕捉复杂上下文的优势,构建了显存与计算效率双优的混合架构,这是工业界首次成功将 Mamba 架构无损地应用在超大型 MoE 模型上。

腾讯表示,作为旗舰模型,Turbo S 未来将成为腾讯混元系列衍生模型的核心基座,为推理、长文、代码等衍生模型提供基础能力。基于 Turbo S,通过引入长思维链、检索增强和强化学习等技术,腾讯自研了推理模型 T1,该模型已在腾讯元宝上线。腾讯混元表示,正式版的腾讯混元 T1 模型 API 也将很快上线,对外提供接入服务。

当前,开发者和企业用户可以在腾讯云上通过 API 调用腾讯混元 Turbo S,即日起一周内免费试用。定价上,Turbo S 输入价格为 0.8 元 / 百万 tokens,输出价格为 2 元 / 百万 tokens,相比前代混元 Turbo 模型价格下降数倍。

 直播预告

今年年初,扎克伯格宣布 Meta 计划用 AI 取代中级软件工程师,与此同时,Salesforce 也表示今年将暂停招聘软件工程师。种种迹象似乎都在进一步印证一个趋势——AI 正在加速取代部分软件工程岗位。在技术圈,人们一方面因 AI 带来的生产力飞跃而兴奋不已,另一方面,也难免弥漫着一丝焦虑。

3 月 3 日晚 20:00 直播,一起围绕“当下 AI 如何影响工程师的就业”、“工程师核心竞争力的再定义”等话题,探讨工程师如何应对这场变革。


阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

腾讯混元Turbo S 模型架构 应用门槛降低 AI对就业影响
相关文章