Gemma4 正式发布:谷歌开源大模型,手机和树莓派也能跑
北京时间4月3日凌晨,谷歌正式推出新一代开源大模型 Gemma4,这次不玩虚的——直接让普通用户也能在自家电脑、手机甚至树莓派上跑起能看图、听语音、写代码的AI助手。
这次发布的模型家族包括四个版本:轻量级的 E2B(23亿参数)和 E4B(45亿参数),还有两个高性能版本——26B 的 MoE 模型和 31B 的稠密模型。别看名字简单,它们背后是谷歌基于 Gemini 3 技术重新打磨的成果,重点就一个:**更小、更快、更接地气**。

你能用它干什么?
最实在的升级,是它真能“听懂”你说话了。E2B 和 E4B 两个轻量版,原生支持语音输入——你对着手机说一句“帮我查下今天北京天气”,它不用传到云端,本地就能处理,响应快到像在跟人聊天。
还能看图、看视频。拍张餐巾纸上的手写菜单,它能帮你识别并翻译成英文;录一段孩子搭积木的过程,它能分析出“他现在在尝试拼接对称结构”——这些都不用联网,数据留在你设备里。
开发者最关心的逻辑推理和函数调用也没落下。26B MoE 版本在 Arena AI 的文本推理榜上排全球开源模型第六,31B 版本排第三,比很多闭源模型还强。这意味着你完全可以拿它做智能助手的“大脑”:自动帮你订机票、整理邮件、写Python脚本、甚至调用你家的智能门锁。
不用高端显卡,也能跑起来
过去想跑30B级模型?得配个80GB的H100,成本十几万。Gemma4 破了这个门槛——31B 版本的原始权重,只要一块80GB的H100就能跑;更夸张的是,**量化后的版本,连RTX 4090这种消费级显卡都能带得动**。
如果你连显卡都没有?试试 E2B 或 E4B。谷歌用了名为 PLE 的新技术,把模型压缩得极轻,再配上128K的超长上下文记忆能力,实测可以在树莓派4B和iPhone 14上流畅运行,延迟低于500毫秒。你手机里装个本地AI助手,不用上传照片、不用连服务器,隐私完全自己掌控。
开源,不设门槛
谷歌这次把 Gemma4 全部模型以 Apache 2.0 协议开放,这意味着:你可以商用、可以改代码、可以打包进你的App,不用交钱、不用申请、不用怕被封号。
已经有开发者在GitHub上开始做本地版的“AI记事本”:录音转文字+自动分类+提取待办事项,全部在手机端完成。还有人把 E4B 塞进树莓派,做成家庭语音控制中枢,连着灯光、空调、咖啡机,一句话就能搞定。
这不是实验室里的Demo,这是真正能走进普通人生活的AI。谷歌这次没搞“百亿参数炫技”,而是认真回答了一个问题:**我们能不能让每个普通人都拥有一个不偷看隐私、不收费、随时可用的AI助手?**
答案,就在你手里的手机里。