最新消息:关注人工智能 AI赋能新媒体运营

GenUI SDK 让 Flutter 将对话转化为可操作界面,通过大语言模型动态生成界面

科技资讯 admin 浏览

Google在Flutter生态系统中推出了GenUI SDK for Flutter,目标不是再做一个聊天框,而是提供一套让大语言模型(LLM)将文字回应转换为可操作界面的生成式UI工作流程,作为协调层负责在人类用户、Flutter组件(Widget)代码库与AI代理之间交换信息,使应用程序能够保持品牌风格动态生成界面。目前GenUI SDK for Flutter以Alpha测试版形式在pub.dev开放。

传统聊天机器人大多只返回长段文字,当任务涉及多个条件、比较或决策时,用户往往需要在对话记录中来回滚动页面,体验并不理想。GenUI要解决的是让模型输出的不只是文字,而是一份界面描述,由前端SDK渲染为卡片、图像、表单、滑块或日期选择器,用户通过点击和调整参数进行交互,将复杂操作简化为直观的界面。

官方举例,用户输入“帮我规划东京旅行”后,应用会将该提示以及可用组件目录发送给AI代理。模型在生成行程建议文本的同时,也会通过GenUI提供的工具构建出一套适合呈现内容的UI结构树。GenUI SDK接收响应后进行反序列化,将这棵树还原为Flutter组件并渲染,SDK会根据描述中的标注区分信息展示组件、布局组件与可交互控件,并据此构建最终界面。

用户的点击或输入可触发新一轮请求,代理根据最新状态返回更新后的内容与界面,形成一个持续运行的人机协作循环。

这套流程基于一组Google的生成式UI工具与协议,用于描述LLM需要呈现的布局与组件,可适配不同前端框架。GenUI SDK for Flutter采用A2UI作为UI序列化格式,相当于让Flutter成为A2UI的一个实现端,未来同一套代理逻辑在其他平台上也有望复用。

GenUI目前支持多种内容生成模式,包括直接调用Google Gemini API、通过Firebase AI Logic在客户端访问Gemini,以及使用A2UI与后端代理服务器对接。团队也预留了接口,允许企业自行编写桥接器,接入自有的LLM或其他云端模型,只要能返回符合A2UI格式的描述,即可沿用同一套Flutter前端与工作流程。

官方提到,后续将考虑与Agent Development Kit整合,增加对更多主流LLM与后端框架的官方支持,并通过渐进式渲染降低等待时间,甚至让标准界面组件在模型尚未完全响应前就先显示在页面上。更进一步的设想包括让模型自主组合整个界面与导航逻辑,甚至以Dart字节码实现由服务器主导的UI架构,以及与Genkit等开源AI框架结合。