谷歌近日推出了其Gemma系列家族中最轻量级的模型——Gemma 3 270M。该模型拥有2.7亿参数,专为端侧部署场景设计,具备出色的指令遵循和文本结构化能力。Gemma 3 270M以其最低的RAM内存需求(INT4量化下仅约240MB)成为系列中最适合低功耗设备的版本,甚至在Pixel 9 Pro手机上运行25轮对话仅消耗0.75%电量。它特别适用于情感分析、实体识别、人生规划等高频率、任务明确且涉及个人隐私的场景,也便于开发多个专用小型模型。谷歌同时提供了基于Hugging Face Transformers的微调教学资源,支持开发者进行定制化开发,且已有第三方开发者成功将其运行在浏览器端。
🔹 Gemma 3 270M是谷歌Gemma系列最新推出的轻量级模型,拥有2.7亿参数,专为在手机、平板等端侧设备上部署而优化,具备优秀的指令遵循和文本结构化能力。
📊 在内存占用方面,Gemma 3 270M表现出色,其INT4量化版本仅需约240MB的RAM,是Gemma系列中对硬件要求最低的模型,能够显著降低低功耗设备的部署门槛,例如在Pixel 9 Pro上运行25轮对话仅消耗0.75%电量。
💡 该模型特别适合处理对响应速度要求高、任务明确的场景,并且由于其轻量级特性和对隐私信息的处理能力,非常适合用于情感分析、实体识别、人生规划等个人化应用开发,以及构建一系列专用小型AI模型。
🛠️ 谷歌为Gemma 3 270M提供了全面的微调教学资源,支持开发者利用Hugging Face Transformers框架进行全模型训练,方便在分类、信息抽取、情感分析等多种任务上进行定制化开发,同时也证明了其在Web环境下的良好性能和可控性。
IT之家 8 月 16 日消息,谷歌宣布旗下开源旗下 Gemma 系列家族中最轻量的版本“Gemma 3 270M”,该模型拥有 2.7 亿参数,主要面向端侧部署场景,具备指令遵循和文本结构化能力。

IT之家获悉,目前 Gemma 3 系列模型包括 270M、1B、4B、12B 与 27B 五种规模版本。在 Q4_0 量化格式下,各模型的 RAM 内存需求分别为 240MB、892MB、3.4GB、8.7GB 和 21GB。其中,Gemma 3 270M 以最低 RAM 内存门槛(INT4 量化版本的 RAM 内存需求仅约 240MB),成为系列模型中最适合低功耗设备部署的版本,号称在 Pixel 9 Pro 手机上运行 25 轮对话仅消耗手机 0.75% 的电量。

据谷歌介绍,该模型特别适合处理高频率、任务明确的场景,同时特别适合处理个人隐私信息,例如“情感分析、实体识别、人生规划”等,同时也适用于开发多个专用任务的小型模型。
谷歌同步发布了微调教学资源,涵盖基于 Hugging Face Transformers 进行全模型训练的完整流程,支持开发者在分类、信息抽取、情感分析等任务上进行定制化开发。目前已有第三方开发者通过 transformers.js 将该模型运行在浏览器端,证明 Gemma 3 270M 在 Web 环境中同样具备良好的性能与可控性。