
Google周三(6/18)宣布,已开始藉由搜寻实验室(Search Labs)中的AI模式,测试具备语音输入功能的Search Live,它允许Android及iOS平台上的Google程序在搜寻时,能够利用语音与系统连续对话,它会秀出逐字稿(Transcript),也会列出参考连结,亦可于背景使用。不过,目前仅开放美国市场参与测试。
随着大型语言模型的能力愈来愈强,科技业者正着手改善人们与AI模型之间的体验,例如Google DeepMind的Astra专案(Project Astra)目标是建置一个可覆盖所有Google产品的AI助理,目前正在开发自然语音的连续互动功能,或是使用各种工具替使用者完成任务,或是提供个人化答案等,并将它们应用在Gemini Live、Google搜寻或眼镜等新装置上。
Google搜寻团队解释,AI模式中的Search Live採用一个具备先进语音能力的客製化Gemini模型,该模型是建立在拥有最佳品质及资讯的搜寻系统上,因此不管使用者从哪里、用什么方式发问,系统都能提供可靠且有帮助的回答。
此外,Search Live的语音搜寻功能还採用了查询扇出(query fan-out)技术,将一个查询同时传送到多个系统、模型或资料源,整合之后再予以回应,以呈现更多元的结果。
于是Google程序用户在搜寻中启用Search Live时,得以用语音询问问题,系统也会以语音回应,而且双方可以不间断地回应与互动,使用者也可查看对话的逐字稿,或是系统所提供的参考连结,也能进入AI模式的历史纪录查询先前的对话内容。
由于Search Live可于背景执行,因此就算萤幕锁住了仍能继续对话,也能在对话时使用其它程序。
目前Google除了开放Gemini聊天机器人之外,在去年10月于全球搜寻服务中部署的AI Overviews也已替使用者彙整并摘录了重要资讯。