IT之家 2024年07月19日
商汤绝影行业首发原生多模态大模型车端部署:80 亿参数、每秒 40 Tokens
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

商汤科技联合创始人、首席科学家王晓刚宣布,商汤绝影在行业内率先实现了原生多模态大模型的车端部署。该模型在车载端侧 8B 模型首包延迟在 300 毫秒以内,推理速度 40 Tokens / 秒,覆盖主流算力平台。商汤绝影为多模态大模型打造计算引擎“HyperPPL”,目前已扩展并支持主流车载计算硬件,兼容多种主流操作系统,适配多个车载芯片的部署平台。HyperPPL 针对车载多人场景进行优化,在车内多人并发情况下,车端多模态大模型的模型推理效率相比单人没有明显降低。

🎉 **车端原生多模态大模型部署**: 商汤绝影率先实现车端原生多模态大模型的部署,为自动驾驶领域带来新的突破。

🚀 **高性能推理**: 该模型在车载端侧 8B 模型首包延迟在 300 毫秒以内,推理速度 40 Tokens / 秒,覆盖主流算力平台。

💡 **HyperPPL 计算引擎**: 商汤绝影为多模态大模型打造计算引擎“HyperPPL”,支持主流车载计算硬件,兼容多种主流操作系统,适配多个车载芯片的部署平台。HyperPPL 针对车载多人场景进行优化,在多人并发情况下,模型推理效率依然出色。

🔮 **未来发展**: 商汤预计,随着更高算力的车载芯片问世,绝影多模态大模型车端部署方案的首包延迟将大幅降低,推理速度进一步提高。

IT之家 7 月 19 日消息,商汤科技联合创始人、首席科学家王晓刚 17 日宣布,商汤绝影在行业内率先实现了原生多模态大模型的车端部署。车载端侧 8B 模型首包延迟在 300 毫秒以内推理速度 40 Tokens / 秒,覆盖主流算力平台。

商汤绝影为多模态大模型打造计算引擎“HyperPPL”,目前扩展并支持主流车载计算硬件,兼容多种主流操作系统,适配多个车载芯片的部署平台。

商汤绝影称 HyperPPL 针对车载多人场景进行优化,使得车内多人并发情况下,车端多模态大模型的模型推理效率相比单人没有明显降低。

据IT之家此前报道,商汤绝影此前表示,深圳首条自动驾驶公交线路采用其车辆与技术所有驾驶操作都无需人员介入。

明年上千 TOPS 算力的车载芯片(英伟达 Thor)就会问世。基于更高算力的计算平台,商汤预计绝影多模态大模型车端部署方案的首包延迟将大幅降低,推理速度进一步提高。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

商汤绝影 多模态大模型 车端部署 自动驾驶
相关文章