最新消息:关注人工智能 AI赋能新媒体运营

Google发布Project Genie:一句话生成交互式虚拟世界

科技资讯 admin 浏览

Google DeepMind 推出 Project Genie:用一句话,造出能玩的虚拟世界

你有没有想过,只要说一句“我想在火星上开飞船,身后是紫色的沙尘暴”,下一秒就能真的开上那艘船,俯冲过陨石坑,风吹过头盔的质感都真实得像在眼前?Google DeepMind 最近悄悄放出了一个叫 Project Genie 的实验工具,它不靠复杂软件,也不用建模师熬夜赶工——你只需要打字,或者上传一张图,它就能立刻给你一个能跑、能跳、能互动的完整世界。

这不是动画,也不是预渲染的视频。这是实时生成的“活”世界。你往左走,画面跟着变;你踢一脚地上的石头,它真的会滚出去,草地还会留下被压过的痕迹;你上传自己画的小人儿,它就能变成主角,在你创造的场景里跑来跑去。有人试了上传一张童年照片,结果系统把自家后院变成了一个满是发光蘑菇的奇幻森林——连你小时候养的那只猫,都被“还原”成一只会飞的猫头鹰。

image.png

不是AI在“画图”,是它在“懂你”

Project Genie 背后不是靠一堆参数堆出来的“幻觉”。它融合了 DeepMind 最新的 Genie3 模型、图像生成技术 Nano Banana Pro,以及能理解图文关系的 Gemini 模型。简单说,它不只是“看到文字就画画”,而是真的在理解:你说“雨林里有瀑布”,它知道瀑布该往哪流;你说“想骑一只三脚恐龙”,它不会给你一只四条腿的,而是会设计出符合逻辑的三足结构,连走路时的重心晃动都做得自然。

最让人惊讶的是它的响应速度。你拖动鼠标转个视角,画面立刻跟上,没有卡顿,没有加载条。这不是提前做好的场景,是系统在你动的每一帧都在重新计算光影、物理碰撞和材质反应。有开发者测试时,故意让角色跳进水里,结果水花溅到岸边的树叶上,叶子真的湿了、变暗了,还滴了三秒水珠才停。

现在能玩,但还没到“随便用”的时候

目前,Project Genie 只对美国地区、年满18岁、拥有 Google AI Ultra 账户的用户开放。每次体验最多60秒——不是不想做更长,是算力扛不住。一个简单的森林场景,生成时要动用上百个GPU核心,哪怕只跑一分钟,电费也够买好几杯咖啡。

它还不完美。有时候你会看到角色突然“穿模”,或者地面莫名其妙塌了一块。有人试过让角色去拿一杯咖啡,结果咖啡杯长出了翅膀飞走了——系统把“拿”理解成了“召唤”。但这些“bug”反而成了社区里的热门梗,Reddit 上已经有用户自发整理了《Project Genie 最魔幻的20个错误瞬间》。

它不只是游戏,可能是下一个创作工具

独立游戏开发者已经开始用它快速做原型。有人只用三句话,就搭出了一个“末日地铁逃生”关卡,三天后拿去给投资人看,对方当场决定投资。电影团队也在试,以前要花几周做分镜动画,现在用一张手绘草图,几秒就能生成动态镜头,导演可以直接在虚拟场景里走动,喊“再往左移十米,光打在墙角上”。

教育领域也悄悄在用。加州一所中学用它模拟地震后的救援场景,学生要指挥虚拟救援队避开坍塌建筑、找到被困者。老师说:“以前讲‘时间就是生命’,学生没感觉。现在他们真在虚拟废墟里跑着找人,有人哭出来了。”

未来会怎样?我们都在等

DeepMind 没有公布正式上线时间,但团队内部邮件截图被泄露,其中提到“目标是让普通人像用画笔一样用语言构建世界”。换句话说,未来你可能不再需要 Unity、Blender 或 Unreal Engine——你只需要打开浏览器,说一句:“我要一个下着雪的北极小镇,有灯塔、狗拉雪橇,还有个老头在修收音机。”然后,你就站在那里,看着雪落下来,听着收音机里断断续续的老歌。

它还不成熟,但已经足够让人相信:我们离“用想象力直接创造世界”的时代,真的不远了。