快科技资讯 2024年10月24日
科大讯飞首发汽车端侧大模型:隧道内无网也可用 效果不输云端
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

科大讯飞举办开发者节,正式发布汽车端侧星火大模型。该模型在无网环境下可用,解决用户痛点,且使用效果与云端几乎无差异。虽参数产出降低,但在汽车典型应用场景中效果仅下降1%,端侧首响应时间短,端云融合响应速度快,技术效果领先。多款车型将陆续集成上线。

🚗科大讯飞发布的汽车端侧星火大模型,可在无网环境使用,满足部分用户保护隐私需求,将大模型部署在汽车端本地,不依赖云端网络,解决了用户的使用痛点。

💪尽管汽车端侧星火大模型只有1.3B的参数产出,比通用模型降低两个数量级,但在汽车典型应用场景中实际效果仅下降1%,实用效果几乎无差异。

⏱️端侧首响应时间降低到40毫秒,复杂场景下调用云端模型,端云融合的响应时间也降低至1.3秒,其技术效果和响应速度在全行业领先。

🎉从今年第四季度起,奇瑞、广汽、长城等多款车型将陆续集成该模型上线并开售,用户很快可体验。

快科技10月24日消息,今日,科大讯飞举办“2024科大讯飞全球1024开发者节”。

会上,科大讯飞正式发布汽车端侧星火大模型,相较于云端大模型,汽车端侧星火大模型在无网环境下可用,且使用效果与云端相比几乎无差异。

科大讯飞介绍,很多用户在开车经过山洞隧道,或在其他特殊场景下,会遇到无网的情况;还有些用户出于保护个人隐私需求,不希望将个人数据同步至云端。

而科大讯飞首发的汽车端侧星火大模型,将大模型部署在汽车端本地,不依赖云端网络,完美解决以上用户的使用痛点和需求。

科大讯飞表示,虽然他们部署的汽车端测星火大模型,只有1.3B的参数产出,比现在通用模型降低了两个数量级,但在汽车典型应用场景中,这些应用场景中的实际效果只下降了1%,实用效果几乎没有差异。

端侧首响应时间降低到40毫秒,在复杂场景下还可以调用云端模型,即便需要调各种信源,端云融合的响应时间也降低至1.3秒,汽车端侧星火大模型的技术效果和响应速度,属于全行业领先的水平。

科大讯飞透露,汽车端侧星火大模型不仅是今天首发软硬件一体化的模型,关键是从今年第四季度开始,奇瑞、广汽、长城等多款车型,正在陆续集成上线并开售,用户很快就能体验到。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

科大讯飞 汽车端侧星火大模型 无网环境 响应速度
相关文章