快科技资讯 04月04日
实测车载DeepSeek:做北京旅游攻略 避开喝豆汁儿那种
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

理想汽车推出自研推理模型,基于MindGPT进行优化,旨在打造更智能的车载AI助手。该模型能自主判断是否需要深度思考,并根据问题复杂程度选择合适的思考时间,从而提供更快速、更贴合需求的响应。新模型在数据训练、工程优化等方面进行了大量工作,以满足车主对信息分析、个性化服务和快速响应的需求。理想汽车认为,这种“汽车版DeepSeek”更适合车载场景,未来有望应用于更多AI助手应用。

💡理想汽车推出了自研推理模型,该模型以MindGPT为基础,通过后训练、指令微调和强化学习等方式进行优化,旨在打造更智能的车载AI助手,以满足车主在车内的多样化需求。

🤔该模型的核心特性是能够自主判断是否需要深度思考,并根据问题的复杂程度选择合适的思考时间。这意味着,对于简单的指令,模型会快速响应;而对于需要深度分析的问题,则会进行更全面的思考,从而提供更精准、更个性化的服务。

⚙️为了实现更快的响应速度,理想汽车在模型训练和工程优化方面都下了很大功夫。通过精细的数据归类、多阶段优化以及PD分离等技术,该模型的首个Token响应时间可以达到0.3秒,显著提升了用户体验。

🚗理想汽车选择自研推理模型而非直接接入DeepSeek,是考虑到车载场景的特殊性。与手机、电脑等终端场景相比,车载场景对响应速度和信息精准度有更高的要求,因此需要一个更贴合车主需求的“汽车版DeepSeek”。

接入DeepSeek后,理想又为车机自研了一个推理模型:

它能帮你编故事哄孩子,提供买房建议,还能制定旅游攻略,直接筛掉你不想要的体验。

虽然此前的推理模型也能胜任这些任务,不过理想自研推理模型有所不同——

它能自主分析,你的问题需要不需要思考,需要深度思考还是短思考。

行业争着接入了DeepSeek的当下,理想选了一条新路径,打造了「汽车版DeepSeek」。

汽车版DeepSeek有什么特点?

为什么理想要花大力气自研推理模型,而不是直接上车DeepSeek?

带着这些问题,智能车参考第一时间上车“拷问”了一番理想同学:

不是,你一句“我不喝豆汁儿”,他就真给你做北京一日游攻略啊。

实测「汽车版DeepSeek」

更新理想OTA 7.2版本后,进入语音设置界面会看到一个深度思考的按钮,就像咱们日常用的DeepSeek一样,点击打开:

你也可以用语音对话,让理想同学帮你打开。

不过与常见推理模型不同的是,即便打开了深度思考开关,理想同学也不会每条对话都陷入沉思,而是模型自主决策要不要思考,要思考多久

车控命令「不思考」,理想同学直接执行简单需求「短思考」,车机上方会显示生成中

复杂需求才「深度思考」,理想同学还会说「emmm,我得想想」

实际体验下来,像“我好热啊”、“腰好酸”、“还有多久到目的地”这类对话,即便是处于「深度思考」模式下,理想同学也会分别打开空调、座椅按摩、显示目的地,瞬间响应,无需思考。

而对于车主的一些复杂需求,比方说,你想去北京旅游,但又不想品鉴老北京豆汁儿,那就直接把定制攻略的需求说给理想同学。

稍等几秒,私人定制的旅行攻略就出来了,精确到每个小时去哪儿玩,吃什么(pass掉了豆汁),花多少钱。:

家孩子在车上不睡觉闹腾,你可以让TA现编个故事哄哄孩子:

老婆打电话沟通房子买哪儿,你也可以问问理想同学:

这都是理想同学深度思考后给出的答案,而且比常见的推理模型响应要快一点。

自主选择思考长度,更快的深度思考,这背后是怎么实现的?

「汽车版DeepSeek」的实现过程

理想此前自研的MindGPT大家都比较熟悉了,「汽车版DeepSeek」实际就是以MindGPT为基座模型,进行了后训练,指令微调和强化学习多阶段优化

首先,由于模型能力和数据质量直接相关,所以理想在训练数据上做了非常细致的工作。

据介绍,理想基于过去已有的1100多个技能体系,根据问题复杂度和场景,对数据做了精细归类。

数据类型主要分三种:

第一类,适合做长推理的多轮对话样本,规模在数十万级,用DeepSeek去产出思考过程,然后将产出结果作为训练深度思考能力的数据。

第二类,不适合做长推理,但是仍然需要短思考的数据,还是借助DeepSeek加工形成的短思考数据,规模大概在十万级

第三类则是以往存储的不需要思考的数据,这部分数据最多,据了解规模在百万级,理想从中做了抽样。

这三类数据最终合在一起对模型做后训练,模型就具备了长思考能力,同时也会自主决策是否需要思考,以及思考长短。

完成模型训练后,理想又遇到了另一个痛点:

如何让模型在深度思考的同时,又能响应的更快?

理想关注的首要指标是首token响应时间,最快可达0.3秒。

背后主要是三项措施:

PD分离,将Prefill和Decoder分离部署由于Prefill阶段对首Token影响最大,这一阶段采用高性能Attention机制多卡并行推理工程优化

看上去实现过程并不复杂,但实际上理想遇到了很多挑战,春节复工归来就定下了4月初上新的时间点,然后开启冲刺,时间紧,任务重。

为什么理想车端不直接用DeepSeek,而是自研推理模型?

为什么自研车端推理模型?

据理想汽车透露,其打造车端推理模型有内外两大因素:

据介绍,实际上此前理想的车主就有这方面需求。有的车主日常会问车机一些时事新闻,然后想了解背后的投资建议,比如最近疯涨的金价。

也有车主上班路上突然接到通知要开会,但是对会议主题涉及的市场又不够了解,想让模型归纳相关信息进行分析。

过去的模型不能满足车主这方面的需求,理想便考虑上车推理模型。

然后DeepSeek火爆海内外,加速了上车过程。

DeepSeek强大的破圈效应让很多用户第一次了解到AI的威力,原来AI可以深度思考,提供如此强大的分析能力。

有的车主就直接来问理想:

你们什么时候接入DeepSeek?

这样的问题,相信业内不只有理想收到了。这也是为什么春节复工后,一众车企争先宣布接入DeepSeek。

实际上,理想同学App此前也接入了满血版的DeepSeek。

那为什么还要理想要在车端自研推理模型呢?

理想汽车认为,DeepSeek更倾向电脑和手机等终端场景,车载场景更加垂直,不管是车主的相关知识需求,还是对话要求的响应速度,都需要打造一个「汽车版DeepSeek」。

现有的推理模型,一般思考时间都比较长,而且思考后输出的内容也很长,但车主并不是每次对话都需要一个很丰富的内容作为回应。你是个好模型,只是咱们不合适。

所以理想认为,需要一个「汽车版的DeepSeek」,能提高模型思考能力的同时,也能更灵活快速地响应车主对话,避免车主问一个问题无法得到及时回复,而且回复显得冗长。

模型自主决策是否思考和思考长度,这区别于目前的主流方案。

这一特性有希望推广到其他场景吗?

理想汽车也对未来趋势做出了展望,这很可能会是后续AI助手应用的一个发展方向。

结合当前行业进展,以及理想对理想同学的追求来看,或许理想未来会在端侧部署大模型,以加快响应车主相关需求。

也有分析指出,由于英伟达Thor即将上车,更充沛的算力和前瞻设计,也为未来实现「舱驾一体」提供了可能。

会深度思考的理想同学,是不是朝着李想此前提出的「硅基家人」,又近了一步doge?

理想自研推理模型,解决你的痛点了吗?

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

理想汽车 自研推理模型 汽车版DeepSeek 智能车机
相关文章