谷歌于周四(4月2日)以Apache 2.0协议开源最新版Gemma 4,该模型基于Gemini 3开发,号称是目前最强的开源本地AI模型。
Gemma 4以Gemini 3为基础,具备强大的综合能力,整个系列不再局限于简单对话,而是能处理复杂逻辑与代理工作流。Gemma 4推出四个版本:Effective 2B(E2B)、Effective 4B(E4B)、26B混合专家(MoE)及31B稠密模型。根据谷歌说明,最大的两个版本在性能上均达到同级别最优,其中31B和26B版本分别位列Arena AI文本基准测试中开源模型排行榜第3名和第6名,性能超越参数量更大的模型如Mistral-Large3或DeepSeek-v3.2。
由于Gemma 4可在工作站本地运行,谷歌特别强调其在开发中的实用性。首先,Gemma 4具备更强的推理能力,可执行多步骤规划与深度逻辑推理,在数学和指令遵循测试中表现较前代大幅提升。Gemma 4原生支持函数调用、结构化JSON输出和系统指令,使开发者能够构建可通过API调用多种工具并执行自动化流程的智能代理。它还支持高质量离线编程,可在本地工作站完成开发任务,并原生支持140多种语言,便于开发面向全球市场的应用。
Gemma 4家族拥有更长的上下文窗口,基础版本支持128K,最大两个版本支持256K,允许用户输入代码仓库或长文档。所有四个模型均原生支持视频和图像识别,有助于OCR和图表理解。E2B和E4B版本还支持原生音频输入,可用于语音识别与理解。
对于Android开发者,Gemma 4可在Android Studio中提供AI编程辅助,通过ML Kit Gen Prompt API,可直接在安卓设备上运行Gemma 4。
值得注意的是,与以往版本不同,Gemma 4采用与Mistral、Qwen相同的无限制Apache 2.0开源协议,成为完全开放的模型。
谷歌强调,Gemma 4支持众多开发工具,包括Hugging Face(Transformer、TRL、Transformers.js、Candle)、LiteRT-LM、vLLM、llama.cpp、MLX、Ollama、NVIDIA NIM和NeMo、LM Studio、Unsloth、SGLang、Cactus、Baseten、Docker、MaxText、Tunix、Keras。在芯片平台方面,Gemma 4针对NVIDIA Jetson Orin Nano到Blackwell GPU进行了优化,可通过开源软件ROCm集成AMD GPU,并支持在谷歌的Trillium和Ironwood TPU平台上部署。
目前,Gemma 4的四个版本可分别在Google AI Studio(31B和26B MoE)及Google AI Edge Gallery(E4B和E2B)下载试用。希望定制模型的开发者,可在自有GPU平台、Google Colab或Vertex AI上进行测试。谷歌也鼓励开发者在Google Cloud环境部署,包括Vertex AI、Cloud Run、GKE和主权云等。