快科技资讯 2024年09月20日
大模型赋能智能座舱!NVIDIA深度适配通义千问大模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

阿里云、斑马智行与NVIDIA合作,推出舱驾融合大模型解决方案,实现通义千问多模态大模型与NVIDIA芯片的适配,让智能座舱助理为用户提供丰富交互体验。

🎈阿里云、斑马智行联合NVIDIA推出舱驾融合大模型解决方案,该方案以通义大模型为‘大脑’,集成了多种模型,能为座舱配备具备多种能力的‘智能助理’,让乘客通过语音等方式操作各类应用。

💡Qwen2-VL是阿里通义实验室研发的新一代视觉语言模型,具有强大的图片识别和视觉智能体能力,其2B和7B参数模型因性能和尺寸的‘极致性价比’适合汽车端侧场景。

🚀通义实验室最新发布的MobileAgentV3首次落地汽车座舱场景,提供多种操作决策能力,扩展了座舱智能助理的能力边界。同时,NVIDIA提供芯片适配技术支持,优化架构和软件,降低计算成本和时间延迟。

快科技9月20日消息,在杭州云栖大会上,NVIDIA DRIVE Orin系统级芯片实现了与阿里云通义千问多模态大模型Qwen2-VL的深度适配。

阿里云、斑马智行联合NVIDIA英伟达推出舱驾融合大模型解决方案,基于通义大模型开发“能听会看”的智能座舱助理,让车内人员通过语音交流就能操作座舱内的各类应用,享受极致丰富的交互体验。

据悉,通义大模型的智能座舱解决方案,能为座舱配备一位具备感知、思考、决策能力的“智能助理”,它不仅能观察理解用户的语音、手势,还能根据环境信息和常识判断做出自主决策。乘客无需物理按键,只要动动嘴巴,就能让智能助理完成各种任务。

这个解决方案以通义大模型为“大脑”,集成了通义大语言模型Qwen2-7B和通义多模态模型Qwen2-VL。Qwen2-VL是阿里通义实验室研发的新一代视觉语言模型,具备业界最强的图片识别能力和视觉智能体能力,在多个国际权威测评中创下同等尺寸最优成绩。

Qwen2-VL的2B和7B参数模型因其性能和尺寸的“极致性价比”,尤其适合汽车等端侧场景。同时,通义实验室最新发布的Mobile Agent V3首次落地汽车座舱场景,提供座舱屏幕感知、复杂任务规划以及座舱应用 UI的操作决策能力,大大扩展座舱智能助理的能力边界。

本次解决方案基于端云一体架构,端侧通义大模型经NVIDIA 英伟达自动驾驶和座舱芯片NVIDIA DRIVE Orin加速。NVIDIA英伟达提供了强大的芯片适配技术支持,通过优化GPU 架构和驱动软件,确保充分发挥大模型的性能潜力。

此外,NVIDIA的模型加速技术有效降低了大模型在实时处理复杂任务时的计算成本和时间延迟,为用户创造了流畅无阻的智能体验。

未来,通义大模型还将采用 NVIDIA DRIVE Thor新一代集中式车载计算平台。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

阿里云 NVIDIA 通义大模型 智能座舱
相关文章