最新消息:关注人工智能 AI赋能新媒体运营

谷歌即将发布Nano Banana 2 Flash:性能媲美Pro,成本更低

科技资讯 admin 浏览

谷歌即将发布 Nano Banana 2 Flash:性能逼近 Pro,成本直降一半

据多位内部开发者透露,谷歌正在紧锣密鼓地准备推出一款名为 “Nano Banana 2 Flash” 的新型轻量级AI模型,其内部代号为 “Mayo”——这一命名延续了此前 “Ketchup”(即 Nano Banana Pro)的番茄酱系列传统,暗示着它并非全新架构,而是对现有能力的极致优化。

与此前传闻不同,Flash 并非简单的“缩水版”。多位提前试用的工程师表示,其在常见任务如文本生成、代码补全、多轮对话和指令遵循上的表现,与 Pro 版本几乎无差别——尤其在英文和中文场景下,准确率差距小于3%。但关键突破在于:推理速度提升40%,显存占用降低60%,单次调用成本预计仅为 Pro 的三分之一至二分之一。

企业级落地的“性价比炸弹”

对于企业用户而言,这一变化意义重大。目前,Gemini Pro 已被广泛用于客服系统、内容生成和智能助手,但高昂的API调用成本让中小团队望而却步。而 Flash 的出现,意味着企业可以在不牺牲核心体验的前提下,将AI服务部署到更多边缘设备、移动端或高并发场景中。

有测试数据显示,在同等QPS(每秒查询率)下,使用 Flash 替代 Pro 可为日均百万级请求的SaaS平台节省超$80,000/月的云算力开销。这正是谷歌此次押注“轻量高性能”战略的核心逻辑——不是用更弱的模型服务大众,而是用更聪明的方式,让强大模型触达更多人。

Gemini 分层体系全面成型:Pro 做尖端,Flash 做普及

过去一年,谷歌逐步构建起 Gemini 的“金字塔模型体系”:

  • Gemini Ultra:面向科研与超大规模任务,性能最强,仅限顶级客户;
  • Gemini Pro:主力商用模型,平衡性能与成本,目前为多数开发者首选;
  • Gemini Flash(即将升级):全新定位——专为高频、低延迟、低成本场景设计,将成为面向大众用户和中小企业的新标准。

此次 Nano Banana 2 Flash 的加入,标志着谷歌首次在“轻量模型”领域实现与旗舰模型的“性能逼近”。这不仅是技术突破,更是商业策略的升级——它让AI不再是“奢侈品”,而成为可规模化、可负担的基础设施。

12月官宣在即,开发者已提前布局

根据谷歌内部邮件和开发者社区的动向,Flash 模型已进入最后的压测阶段,预计将在12月上旬的 Google Cloud Next 活动中正式发布,并同步上线 Gemini API 和 Google AI Studio。届时,开发者将可通过按量付费模式,以极低门槛接入该模型。

值得注意的是,谷歌已在部分产品中悄然启用 Flash 的雏形:如 Android 15 的“智能回复”功能、Gmail 的“智能撰写”增强版,以及新推出的 Google Search Generative Experience(SGE)中的部分低优先级查询响应,均已使用类似架构。这表明,Flash 不仅是API产品,更是谷歌AI生态的底层引擎。

对普通用户来说,这意味着未来你在手机上用Google助手问“明天天气怎么样?”或在网页上用AI写一封邮件时,背后可能正是这款低调却高效的 Flash 模型在默默工作——强大,却不贵。