智源社区 前天 20:14
社区供稿 | MiniCPM-V4.0开源,多模态能力进化,手机可用,还有最全CookBook!
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

面壁小钢炮团队开源了新一代多模态模型MiniCPM-V 4.0,该模型凭借4B参数量,在OpenCompass、OCRBench、MathVista等多个榜单上取得了同级SOTA(State-of-the-Art)的优异成绩,并且实现了在手机等移动设备上的稳定、流畅运行。模型在显存占用和响应速度方面表现突出,即使在Apple M4 Metal上运行,显存占用也仅为3.33GB,且首响时间极短。此外,团队还同步开源了推理部署工具MiniCPM-V CookBook,支持个人开发者、企业级高并发场景以及学术研究者在不同设备和框架上轻松部署和二次开发,为端侧多模态应用提供了强大的支持。

🌟 MiniCPM-V 4.0 凭借4B参数实现同级SOTA性能:该模型在单图、多图、视频理解等多种多模态任务上表现卓越,在OpenCompass、OCRBench、MathVista等多个评测基准中均取得同级最高分,性能可比肩GPT-4.1-mini和Claude 3.5 Sonnet,且在模型参数量减半的情况下,多模态能力较上一代产品显著提升。

📱 手机端丝滑运行,低显存与快响应:MiniCPM-V 4.0 采用了独特的模型结构设计,使其在手机、平板等端侧设备上能够流畅运行,实现快速响应。在Apple M4 Metal上测试,显存占用仅3.33GB,比同尺寸模型更低,且借助ANE + Metal辅助加速,首响时间大幅缩短,优势在输入分辨率提高时更明显。

🚀 MiniCPM-V CookBook助力轻松部署:为方便开发者使用,团队开源了推理部署工具MiniCPM-V CookBook,支持llama.cpp、Ollama、vLLM、SGLang、Hugging Face Transformers等多种框架,满足个人开发者、企业高并发场景及学术研究者的不同部署需求,并提供FastAPI Web-Demo、多种量化流水线及iOS示例,降低了部署门槛。

⚡️ 高并发吞吐量优势显著:在并发测试中,MiniCPM-V 4.0表现出强大的吞吐量优势。例如,在256并发用户需求下,其吞吐量高达13856 tokens/s,远超Qwen2.5-VL和Gemma 3等模型,显示出其在处理大规模并发请求时的强大能力。

💡 验证“知识密度”定律,刷新端侧能力上限:MiniCPM-V 4.0 的发布再次验证了大模型“知识密度”定律(Densing Law),在更小的模型尺寸下实现了更强的性能,成功刷新了端侧多模态模型的能力上限,为移动端AI应用的发展注入了新的活力。

面壁小钢炮一代多模态模型 MiniCPM-V 4.0 现已开源。依靠 4B 参数,取得 在 OpenCompass、OCRBench、MathVista 等多个榜单上取得了同级 SOTA 成绩,且 实现了在手机上稳定、丝滑运行。此外,我们也正式开源了 推理部署工具 MiniCPM-V CookBook,帮助开发者面向不同需求、不同场景、不同设备,均可实现开箱即用的轻量、简易部署。

话不多说,先来看看 MiniCPM-V 4.0 在手机上运行的惊艳效果。作为最适合在手机上运行的模型尺寸,MiniCPM-V 4.0 以 4B 的参数量真正做到了稳定运行、快速响应,且在手机、平板等设备长时间连续使用无发热、无卡顿

前,可支持 MiniCPM-V 4.0 本地部署的 IOS App 已开源,开发者可在 CookBook 中下载使用。

 模型链接 

Github: 🔗 

https://github.com/OpenBMB/MiniCPM-o

Hugging Face: 🔗 https://huggingface.co/openbmb/MiniCPM-V-4

ModelScope: 🔗 https://modelscope.cn/models/OpenBMB/MiniCPM-V-4

CookBook: 🔗 

https://github.com/OpenSQZ/MiniCPM-V-CookBook

   

4B 参数,综合性能达到同级SOTA

作为端侧多模态模型的新晋王者,MiniCPM-V 4.0 在 4B 参数量级的 PK 中,在单图、多图、视频理解等多模态能力上已达到同级 SOTA 级别。在 OpenCompass、OCRBench、MathVista、MMVet、MMBench V1.1、MMStar、AI2D、HallusionBench 等评测基准测试中,MiniCPM-V 4.0 综合性能均为同级最高。

其中,在 OpenCompass 测评中,MiniCPM-V 4.0 综合性能超过 Qwen2.5-VL 3B 模型和 InternVL2.5 4B 模型,甚至可比肩 GPT-4.1-mini、 Claude 3.5 Sonnet。相较于上一代 MiniCPM-V 2.6 的 8B 模型,MiniCPM-V 4.0 在 模型参数减半 的同时,多模态能力也实现了显著提升。

总的来说,MiniCPM-V 4.0 再一次验证了大模型“知识密度”定律 Densing Law,也再一次刷新了端侧多模态模型的能力上限

   

低显存+快响应,打造端侧丝滑运行的模型标杆 

之所以能在手机、PC 等端侧丝滑、流畅的完成实时视频理解、图像理解等任务,除了 MiniCPM-V 4.0 出色的效果以外,也得益于独特的模型结构设计,实现了同尺寸模型下可最快的首响时间与更低的显存占用。

经在 Apple M4 Metal 上测试,正常运行 MiniCPM-V 4.0 模型,显存占用仅为 3.33 GB Qwen2.5-VL 3B、Gemma 3-4B更低

同样,在 Apple M4 Metal 上进行图片理解测试中,MiniCPM-V 4.0 模型借助 ANE + Metal 辅助加速,让首次响应时间大幅缩短,实现了同尺寸最佳,且随着输入的图片分辨率提高,首响时间快的优势更为明显。

此外,我们也利用 2 张 4090 GPU 对模型并发量、吞吐量进行了测试。实验结果显示,在算力资源可支持的范围内,随着并发量的增加,MiniCPM-V 4.0 模型总吞吐量优势更为明显。例如在 256 并发用户需求下,MiniCPM-V 4.0 吞吐量高达 13856 tokens/s,远超 Qwen2.5-VL 的 7153 tokens/s、Gemma 3 的 7607 tokens/s。

   

CookBook 上线,面向各类场景轻松部署 

为了广大的开发者群体能够方便部署并使用 MiniCPM-V 4.0 模型,我们与上海期智研究院首次系统开源了推理部署工具 MiniCPM-V CookBook,面向多种场景实现开箱即用的轻量部署,并提供详尽文档以降低部署门槛、加速落地。

MiniCPM-V CookBook 在框架兼容性上做到了“三端并举”,再次扩大了 MiniCPM-V 模型的用户群体。面向 个人开发者,可通过 llama.cpp 和 Ollama 等框架,在手机、平板、PC 等端侧实现部署,并完成图像问答或简易多模态实验;面对 企业侧的高并发场景,MiniCPM-V 与 vLLM、SGLang 高并发服务框架深度集成,获得高吞吐、低时延的稳定服务;而 学术与算法研究者 则可以基于 Hugging Face Transformers 等继续做二次开发、Prompt 注入和量化对比实验,快速验证新想法、分享复现实验。

同时,MiniCPM-V CookBook 不仅给出一键启动的 FastAPI 私有 Web-Demo,方便快速搭建 RAG 知识库或内部服务;还内置 GGUF、BNB 及 AutoAWQ 多条量化流水线,结合量化模型实现低资源高效部署;同时提供完整 iOS 示例,使端侧设备如 iPhone 和 Pad 上的实时多模态交互依旧保持“丝滑”体验。

本文由 Hugging Face 中文社区内容共建项目提供,稿件由社区成员投稿,经授权发布于 Hugging Face 公众号。文章内容不代表官方立场,文中介绍的产品和服务等均不构成投资建议。了解更多请关注公众号:

如果你有与开源 AI、Hugging Face 相关的技术和实践分享内容,以及最新的开源 AI 项目发布,希望通过我们分享给更多 AI 从业者和开发者们,请通过下面的链接投稿与我们取得联系:https://hf.link/tougao

内容中包含的图片若涉及版权问题,请及时与我们联系删除

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

MiniCPM-V 4.0 多模态模型 AI开源 端侧AI 模型部署
相关文章