机器之心 11小时前
谷歌开源Gemma 3 270M,性能超越Qwen 2.5同级模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

谷歌近期发布了最新款语言模型Gemma 3 270M,这是一款参数量为2.7亿的紧凑型模型,专为特定任务微调设计,在指令跟踪和文本结构化方面表现出色。该模型继承了Gemma 3系列的先进架构,并以其小巧体积和低功耗成为一大亮点。在Pixel 9 Pro手机上,INT4量化模型在25次对话中仅消耗0.75%电量。Gemma 3 270M具备出色的指令遵循能力,并提供可用于生产的INT4量化检查点,最大程度减少性能损失。谷歌强调了其在专业化任务中的优势,并提供了多种途径供开发者试用和微调,包括Hugging Face、Vertex AI和Colab等平台,旨在降低AI应用门槛,赋能开发者和企业构建更高效、更具创意的AI解决方案。

💡 **紧凑高效的架构设计**:Gemma 3 270M拥有2.7亿个参数,其中嵌入参数占1.7亿,Transformer模块占1亿。其庞大的256k token词汇量使其能够处理特定和罕见的token,为在特定领域和语言中进行微调奠定坚实基础,是构建精简、快速且成本较低的生产系统的理想起点。

⚡ **极致的节能与低功耗**:该模型的一大关键优势在于其极低的功耗。在Pixel 9 Pro手机SoC上的内部测试显示,INT4量化模型在25次对话中仅消耗0.75%的电量,是目前最节能的Gemma模型,非常适合在资源受限的设备上部署。

🎯 **强大的指令遵循能力**:谷歌发布的指令调整模型附带预训练检查点,虽然不专为复杂对话设计,但能开箱即用地遵循通用指令。此外,提供量化感知训练(QAT)检查点,允许以INT4精度运行模型,同时将性能下降降至最低,这对于在资源有限的设备上部署至关重要。

🚀 **赋能专业化任务与快速迭代**:Gemma 3 270M特别适合高容量、定义明确的任务,如情绪分析、实体提取、创意写作等。其小巧体积也支持快速微调实验,帮助开发者在数小时内找到适合用例的配置,加速产品迭代和部署,尤其在需要快速响应和用户隐私保护的场景下优势明显。

🌐 **易于获取与广泛应用**:谷歌提供了Gemma 3 270M的快速入门方案和工具,包括完整的微调指南、预训练模型和指令调优模型,并支持Hugging Face、Vertex AI、llama.cpp等多种热门推理工具。开发者还可以直接在Colab上进行快速微调,降低了AI应用的门槛,促进了其在各领域的广泛应用。

2025-08-15 12:14 北京

下载下来只有241MB。

机器之心报道

机器之心编辑部

下载下来只有 241 MB。

本周四,谷歌正式发布了 Gemma 3 的最新一款模型。

Gemma 3 270M 是一款紧凑型、拥有 2.7 亿个参数的小体量语言模型,专为特定任务的微调而设计,具备强大的指令跟踪和文本结构化能力。

它继承了 Gemma 3 系列的先进架构和强大的预训练功能,同时为小尺寸模型带来了强大的指令执行能力。谷歌展示的 IFEval 基准测试成绩所示,在同级模型上,Gemma 3 270M 树立了新的性能水平,使复杂的 AI 功能更容易应用于设备端和研究应用。

IFEval 旨在测试模型执行可验证指令的能力。

Gemma 3 270M 的核心功能主要包括如下几个方面:

对于 1.7 亿个嵌入参数,如何在训练过程中保证不出现嵌入崩溃,谷歌并没有对技术细节进行太多解释。不过在谷歌发布后,AI 社区很快开始了研究。

Sebastian Raschka 第一时间进行了简单的解读,他注意到了新模型的一些架构特点。

谷歌表示,Gemma 3 270M 是一款高质量的基础模型,开箱即用,适用于专业化的任务。在实践中,人们应从紧凑而强大的模型入手,进而构建出精简、快速且运营成本较低的生产系统。

这种思路已在现实世界中取得了很好的成果。谷歌举了 Adaptive ML 与 SK Telecom 合作的成果的例子。面对细致入微的多语言内容审核挑战,他们选择了专业化。Adaptive ML 没有使用大规模通用模型,而是对 Gemma 3 4B 模型进行了微调。从结果上看,专业化的 Gemma 模型达到甚至超越了更大型专有模型在其特定任务上的表现。

Gemma 3 270M 旨在让开发者更进一步利用这种方法,为定义明确的任务释放更高的效率。它是创建一系列小型专业模型的理想起点,每个模型都是各自任务的专家。

这种专业化的力量不仅适用于企业任务,还能帮助个人开发者构建创意应用程序。例如,Hugging Face 团队的成员使用 Gemma 3 270M 为一款使用 Transformers.js 的睡前故事生成器网页应用提供支持。可知,该模型的体量和性能使其非常适合离线、基于网页的创意任务。

谷歌表示,Gemma 3 270M 适用于以下场景:

现在,你也可以在 Colab 上尝试自行尝试微调,只需不到 5 分钟即可完成。

过去几个月,谷歌的 Gemma 开放模型系列经历了一系列发布。在 4 月到 5 月,谷歌推出了 Gemma 3 和 Gemma 3 QAT,为单云和桌面级 GPU 提供了不错的 AI 性能。随后在 6 月 25 日,面向移动端的 Gemma 3n 正式发布,为手机等设备引入了强大的实时多模态 AI 能力。

谷歌表示,截止上周,Gemma 系列的累积下载量已经突破了两亿次。

参考内容:

https://developers.googleblog.com/en/introducing-gemma-3-270m/

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Gemma 3 270M 谷歌AI 小型语言模型 AI微调 低功耗AI
相关文章