IT之家 05月21日 14:38
谷歌发布 Gemma 3n 端侧多模态模型,2GB 内存也能玩转 AI
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

谷歌在2025 I/O开发者大会上推出了Gemma 3n,这是一款端侧多模态AI模型,可在手机、平板和笔记本电脑等设备上本地运行,处理音频、文本、图片和视频等多种数据类型。Gemma 3n采用Gemini Nano同款架构,但性能更出色,甚至可以在内存小于2GB的设备上运行。其最大亮点是采用谷歌DeepMind开发的PLE技术,显著降低内存需求。在非英语语言处理方面,Gemma 3n表现优异,尤其在日语、德语等语言中。用户可通过Google AI Studio直接在浏览器中使用,开发者可通过Google AI Edge集成本地功能。

📱Gemma 3n是一款端侧多模态AI模型,能够在手机、平板和笔记本电脑等设备上本地运行,支持处理音频、文本、图片和视频等多种数据类型,为设备端AI应用带来强大的表现力。

🧠Gemma 3n采用了谷歌DeepMind开发的Per-Layer Embeddings(PLE)技术,有效降低了模型的内存需求。尽管其参数量分别为5B和8B,但内存占用仅相当于2B和4B模型,分别低至2GB和3GB。

🌐Gemma 3n在非英语语言处理上表现突出,尤其在日语、德语、韩语、西班牙语和法语等语言中表现优异,在多语言基准测试WMT24++中得分高达50.1%。

🛠️用户可以通过Google AI Studio在浏览器中直接使用Gemma 3n,无需任何设置。开发者可以通过Google AI Edge集成本地功能,支持文本和图像的理解与生成,未来还将扩展更多能力。

IT之家 5 月 21 日消息,今天召开的 2025 年 I/O 开发者大会上,谷歌推出了 Gemma 3n 端侧多模态 AI 模型,可以在手机、平板和笔记本电脑上本地运行,处理音频、文本、图片和视频多种数据类型。

Gemma 产品经理 Gus Martins 透露,Gemma 3n 可以在内存小于 2GB 的设备上运行,采用 Gemini Nano 同款架构,但性能表现更出色。他强调:“Gemma 3n 为设备端 AI 应用带来了惊人的表现力。”

IT之家援引博文介绍,Gemma 3n 的最大亮点在于采用了谷歌 DeepMind 开发的 Per-Layer Embeddings(PLE)技术,显著降低了模型的内存需求。尽管其参数量分别为 5B 和 8B,但内存占用仅相当于 2B 和 4B 模型。

谷歌宣称,Gemma 3n 的内存占用分别低至 2GB 和 3GB。此外,通过 PLE、KVC 共享和高级激活量化等技术,Gemma 3n 在移动设备上的响应速度提升 1.5 倍,质量也优于 Gemma 3 4B 版本。

Gemma 3n 在非英语语言处理上也有突破,尤其在日语、德语、韩语、西班牙语和法语中表现优异,在多语言基准测试 WMT24++ 中,该模型得分高达 50.1%。

用户无需任何设置,目前可通过 Google AI Studio 直接在浏览器中使用 Gemma 3n;开发者则可通过 Google AI Edge 集成本地功能,支持文本和图像理解与生成,未来还将扩展更多能力。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Gemma 3n 多模态AI 端侧AI PLE技术 Google AI
相关文章