谷歌于周四(4月2日)以Apache 2.0协议开源最新版Gemma 4,该模型基于Gemini 3开发,号称是目前最强的开源本地AI模型。
Gemma 4以Gemini 3为基础,具备强大的多任务处理能力,整个系列不再局限于简单对话,而是能够处理复杂逻辑与智能代理工作流。Gemma 4推出四个版本:Effective 2B(E2B)、Effective 4B(E4B)、26B混合专家(MoE)和31B稠密模型。根据谷歌说明,最大的两个版本在性能上均达到同类顶尖水平,其中31B和26B版本在Arena AI文本基准测试中分别位列开源模型第3名和第6名,表现优于参数量更大的模型如Mistral-Large3或DeepSeek-v3.2。
由于Gemma 4可在本地工作站运行,谷歌特别强调其在开发中的实用价值:首先,Gemma 4具备更强的推理能力,可执行多步骤规划与深度逻辑运算,在数学推理和指令遵循测试中较前代有显著提升。Gemma 4原生支持函数调用、结构化JSON输出及系统指令,使开发者能够构建可通过API调用多种工具并执行自动化流程的智能代理。它还支持高质量离线编程,可在本地工作站完成开发任务,并原生支持140多种语言,便于开发面向全球市场的应用。
Gemma 4家族具备更长的上下文窗口,基础版本支持128K,最大两个版本支持256K,允许用户输入大型代码仓库或长文档。所有四个模型均原生支持视频与图像识别,适用于OCR和图表理解。E2B和E4B版本还支持原生音频输入,可用于语音识别与理解。
对于Android开发者,Gemma 4可在Android Studio中提供AI编程辅助,通过ML Kit Gen Prompt API可直接在Android设备上运行Gemma 4。
值得注意的是,与之前版本相比,Gemma 4采用与Mistral、Qwen相同的无限制Apache 2.0开源协议,成为完全开放的模型。
谷歌强调Gemma 4兼容众多开发工具,包括Hugging Face(Transformer、TRL、Transformers.js、Candle)、LiteRT-LM、vLLM、llama.cpp、MLX、Ollama、NVIDIA NIM与NeMo、LM Studio、Unsloth、SGLang、Cactus、Baseten、Docker、MaxText、Tunix、Keras等。在硬件平台方面,Gemma 4针对从NVIDIA Jetson Orin Nano到Blackwell GPU进行了优化,可通过开源软件ROCm支持AMD GPU,并可在谷歌的Trillium和Ironwood TPU平台上部署。
目前,Gemma 4的四个版本可分别在Google AI Studio(31B及26B MoE)和Google AI Edge Gallery(E4B及E2B)下载试用。希望定制模型的开发者可在自有GPU平台、Google Colab或Vertex AI上进行测试。谷歌也鼓励开发者在Google Cloud环境部署,包括Vertex AI、Cloud Run、GKE、主权云等。