最新消息:关注人工智能 AI赋能新媒体运营

Google Labs 推出 Stitch:AI 驱动的文本转UI设计平台

科技资讯 admin 浏览

Stitch 正式上线:让每个人都能用一句话做出像样的界面

Google Labs 不再藏私,正式把实验项目 Stitch 推向公众——这不是又一个“AI生成图片”的花哨demo,而是一个真正能让你从零开始,用说话的方式做出可用产品界面的工具。

image.png

不用画线框,说清楚“想要什么感觉”就行

过去做界面,得先画线框图、配色、排版、切图、交开发……现在,Stitch 让你直接说:“我要一个像Notion那样清爽,但带点Airbnb温馨感的后台面板。”AI 会立刻给你一整套设计,不是乱凑的模板,而是根据你描述的“氛围”——比如“专业但不冰冷”“年轻但不花哨”——自动生成符合逻辑的布局和交互细节。

你不需要懂设计术语。你只需要知道你希望用户用的时候,是觉得“这东西真好用”,还是“这界面好酷”。Stitch 听得懂。

拖进来的东西,AI都懂

你可以把网页截图、手绘草图、甚至微信聊天记录里的界面截图,直接拖进Stitch的无限画布里。它不会只认“标准组件”,它会看:这个按钮为什么放这儿?这段文字为什么大?这个颜色是不是为了突出重点?

你甚至可以拖一张竞品的截图,说:“我要一个类似这个,但更简单点的版本。”它能拆解出结构,再重新组合——不是抄袭,是理解背后的逻辑。

语音改设计,像跟同事讨论一样自然

“把导航栏移到下面”“按钮颜色再暖一点”“这里加个搜索框”——不用点来点去,直接说。语音指令实时生效,修改后立刻看到效果。你不用记快捷键,也不用翻菜单,就像在白板前跟搭档边喝咖啡边改稿。

一键变可点的原型,还能发给开发

设计好了?点一下“生成原型”,马上就能点击跳转、滑动、填表——不是静态图,是能演示的交互原型。更关键的是,它自动生成一个叫 DESIGN.md 的文件,开发人员打开就能看到完整的组件说明、间距、颜色代码、交互逻辑,不用再对着设计稿猜你到底想干嘛。

这个文件能直接导入 Figma、Adobe XD,甚至能对接 VS Code 和 Google 的 AI Studio,让设计师和开发者用同一种语言沟通——省掉无数次“这个按钮是24px还是20px?”的扯皮。

不只是给设计师用的

Stitch 没有门槛。一个想做独立App的创业者,不用找设计师,自己就能做出第一版界面;一个产品经理,能快速验证想法,不用等排期;一个前端开发者,也能用它快速搭出内部工具的界面,省下几天时间。

它不是要取代设计师,而是把那些重复、琐碎、耗时的“画图”工作,从流程里剔除。让真正懂用户、懂体验的人,把精力放在更重要的事上。

现在就能用,全球开放

Stitch 已经在所有支持 Gemini 的地区上线,年满18岁就能直接访问 stitch.google.com。不需要邀请码,不用排队,注册即用。

它不炫技,不堆术语。它只是让“做界面”这件事,重新变得简单、自然、有人味。