2024年,DeepSeek R1 一战成名;2025年,OpenAI 不再嘴硬,终于也开始试探性地“Open”;谷歌一边推进 Gemini,一边推出轻量化的开源多模态 Gemma 系列……AI大模型的开源浪潮正在以前所未有的速度重塑格局。
在这个关键时间节点,6月30号,百度正式开源文心大模型4.5系列。一口气放出10款模型,涵盖稠密模型与混合专家模型(MoE),不仅开源模型权重,连推理代码也一并开放。
这不是象征性的“开放”,而是框架层(飞桨)+模型层的“双层开源”,在国内乃至全球,都极具标志性意义。
传送门:aistudio.baidu.com/ 如果说过去的几年,中国大模型玩家在追赶,那么这一刻,百度给出了自己的答案——不仅是追平,更是正面硬刚。
技术解读:10款模型,双层开源,性能硬刚一线
首先来看核心事实——百度这次开源的,不是“一个”,而是整整10款模型。包含:MoE模型:激活参数3B到47B;Dense模型:0.3B轻量到424B旗舰全覆盖;多模态模型:文本+视觉统一架构,不是拼凑,而是原生融合。无论你是做端侧部署的轻量模型,还是云端的多模态AI服务,都能在这次开源的列表里找到适配的解法。
技术亮点
- 全栈自研 MoE 混合专家架构 采用多模态异构专家设计,在保持文本任务SOTA表现的同时,视觉感知与多模态推理能力大幅领先。开源不仅是模型,连框架一并开了 百度飞桨3.0成为底座。区别于很多“只开模型权重”的操作,文心4.5实现了“框架+模型”双层开源。这是少数能与Meta Llama+PyTorch体系并肩的国产自研全栈方案。多模态能力全球顶级 在视觉常识、多模态推理、感知能力上,百度的文心4.5-VL-28B-A3B 模型,实测优于 OpenAI o1。是的,不是“接近”,而是直接优于。轻量模型以小博大 21B 文心4.5-Base 模型,在文本任务中不输 Qwen3,甚至在部分场景超越。
多向对比
模型 | 对比性能 | 评测结论 |
---|---|---|
文心4.5-VL-28B-A3B | OpenAI o1 | 多模态感知与推理全面优于 |
文心4.5-21B-Base | Qwen3 | 文本任务效果持平甚至小胜 |
文心4.5-300B-A47B | DeepSeek-V3 / Qwen3 | 世界知识记忆、推理任务全面领先 |
可以看到,这些数据不再是“国产追平”,而是直接站上了全球大模型第一梯队。
应用落地:从实验室走到直播间,再到每一个开发者
开源从不是为了好看,而是为了好用。百度内部的应用已经是最好的实证。最出圈的案例莫过于——罗永浩数字人带货。—— 《第一财经:罗永浩数字人直播带货了,开播26分钟超真人直播1小时GMV》
- 🔥 1300万人次观看💰 GMV超5500万元🛍️ 部分品类销量超越真人直播
如果你看过这场直播,很难不被惊到:这个数字人不再是机械僵硬的模型驱动,它会思考、有情绪、能实时根据观众的互动调整策略。背后的底层动力,就是文心4.5原生多模态大模型。
除此之外,还有:
- 文心快码:国内首个多模态+多Agent协同的AI IDE,直接支持代码生成、调试、优化。文小言:全面升级多模型调度,支持图片问答、语音生成,已经成了不少企业内部的AI助手。
换句话说,文心4.5不仅跑得快,更已经在真实的业务世界里赚到了真金白银。
开源生态:这不仅是百度的胜利,也是开发者的胜利
此次开源,全栈开放的力度在全球都相当激进:
- ✅ 模型:10款全量开放,支持 Hugging Face + 飞桨星河社区直接下载✅ 框架:飞桨 3.0 全面支持,兼容昆仑芯、Nvidia GPU,端云一体✅ 服务:百度千帆大模型平台同步上线 API,开箱即用
对开发者意味着什么?不再受限于国外的Llama、Mistral的生态,也不再担心闭源带来的成本、权限、不可控风险。这是一次真正意义上的“生产力释放”。
观点总结:别再纠结开源闭源,好用才是王道
OpenAI 从傲慢的闭源阵营开始松动,Google 同时做 Gemini(闭源)和 Gemma(开源),DeepSeek 几乎靠开源点燃了自己的品牌。今天,百度文心4.5的开源证明了一个事实:
👉 开源不是慈善,而是技术自信的结果。 👉 国产AI,不再是Plan B,而是世界牌桌的底牌之一。
作为一名开发者,我更关心的不是它是不是“开源”,而是它是不是“好用”。而从这次文心4.5的表现来看,国产大模型,已经非常好用了。
彩蛋
- 想部署轻量模型?试试文心4.5-21B-Base。想搞多模态智能体?文心4.5-VL-28B-A3B 是当前开源领域最能打的。不想自己部署?百度千帆直接用API,省心还便宜。
—— 所以,别等了,赶紧上车试试吧。aistudio.baidu.com/