谷歌开源端侧多模态大模型Gemma 3n发布,2GB内存即可流畅运行

AI产品动态18小时前发布 AI视野

谷歌于2025年6月27日正式发布开源端侧多模态大模型Gemma 3n,该模型以极低内存需求实现高性能多模态处理能力,标志着设备端AI技术的重大突破。最新发布的完整版在5月I/O大会预览版基础上进一步优化,支持在仅2GB内存的移动设备上流畅运行,覆盖手机、平板及笔记本电脑等终端。

Gemma 3n采用创新性MatFormer架构与Per-Layer Embeddings(PLE)技术,通过动态参数共享和分层嵌入策略,将50亿参数(5B)和80亿参数(8B)模型的内存占用分别压缩至相当于20亿(2B)和40亿(4B)模型的水平。其中E2B版本最低仅需2GB内存,E4B版本需3GB内存即可部署。模型集成MobileNet-V5视觉编码器,使视频分析速度提升13倍,生成1024×1024分辨率图像仅需3-5秒。

该模型原生支持图像、音频、视频及文本的多模态输入输出,在非英语语言处理(尤其是日语、德语等)和STEM代码任务中表现突出。技术团队通过KVC共享和高级激活量化技术,使移动端响应速度提升1.5倍,同时保持优于Gemma 3 4B版本的质量表现。目前模型权重已开源,可与Hugging Face Transformers等主流AI工具链深度集成。

谷歌产品经理Gus Martins强调,Gemma 3n将原本需要云端算力的多模态能力首次大规模引入边缘设备。行业分析认为,该技术将加速AI在医疗影像分析、实时翻译等离线场景的落地,推动全球超过20亿台低配设备迈入生成式AI时代。

© 版权声明

相关文章