谷歌发布FunctionGemma小型模型,该模型以Gemma 3 270M(2.7亿参数)为基础,专门针对工具调用需求进行微调,并同步公开了一套训练配方,供开发者根据自身应用的API操作集进一步微调。谷歌将其定位为设备端代理的基础模型,目标是在手机等可在本地运行的环境中,将自然语言指令转换为可执行的API操作,同时兼顾响应速度与数据隐私。
谷歌表示,自Gemma 3 270M发布后,开发者最常提出的需求之一就是原生的工具调用能力。官方认为,生成式AI产品的交互界面正从单纯的对话,转向能够代为执行任务的代理系统。FunctionGemma主要针对单轮与并行的工具调用进行训练,但若要将多步骤操作串联成依赖性工作流,通常仍需借助外部编排流程,或根据自身操作集进行微调,才能将输出行为控制在可预期的范围内。
官方强调FunctionGemma处理执行与说明两种输出场景。模型可先生成结构化的工具调用内容,交由现有工具或操作系统能力执行,获取响应后再以自然语言整理结果反馈给用户。这也使FunctionGemma在系统架构中有两种常见用法:一种是作为离线、本地的独立代理,负责处理无需联网的私密任务;另一种是作为设备端的任务分流器,先将常见指令在设备端快速处理,再将较复杂的需求交由更大模型(如Gemma 3 27B)处理。
谷歌以移动操作评估为例说明微调的必要性。官方指出,若直接使用基础模型,准确率约为58%,但在针对数据进行微调后,在保留测试集上的准确率可提升至85%。
FunctionGemma的规模设计可支持手机与单板计算机等设备,同时沿用Gemma系列约25万规模的词汇表,以提升对JSON格式与多语言输入的处理效率。官方表示,更高效的分词方式有助于缩短序列长度,从而降低延迟,更贴近本地化运算的隐私需求。为便于开发与部署对接现有流程,谷歌还列出了支持的工具链:训练端可使用Hugging Face Transformers、Unsloth、Keras或NVIDIA NeMo,部署端则可选择LiteRT-LM、vLLM、MLX、Llama.cpp、Ollama、Vertex AI或LM Studio等环境。