最新消息:关注人工智能 AI赋能新媒体运营

谷歌Home重磅更新:Gemini接入摄像头,实时识别偷外卖者

科技资讯 admin 浏览

谷歌智能家居大升级:摄像头会“看”了,家终于懂你了

2026年3月2日,谷歌正式向全球Google Home Premium Advanced用户推送了一轮重磅更新。这不是一次简单的功能补丁,而是一场真正改变家庭安防与日常交互方式的变革——你的Nest摄像头,从此不再只是个“录像机”,它开始“看懂”你家正在发生的事。

这次升级的核心,是名为“Live Search”的新功能。它不是靠预设规则或运动检测,而是直接调用Gemini大模型,对摄像头画面进行实时语义理解。你不用再翻半小时的录像回放,只需开口问:

  • “Hey Google,门口的快递盒还在吗?”
  • “狗子现在在后院吗?它有没有把花坛翻个底朝天?”
  • “车库门是开着的吗?我刚出门时好像没关严。”

系统会立刻分析当前画面,给出明确答案——是,否,或“没看到人,但有辆车停在门口”。这背后是Gemini模型对物体、动作、空间关系的实时推理能力,不是简单的AI识别标签,而是像人一样“看”和“想”。

目前,这项功能仅限Google Home Premium Advanced订阅用户使用,每月$14.99,包含10路高清摄像头实时分析、180天云存储和家庭安全警报优先响应。不少用户在Reddit和YouTube上分享体验:“我问‘孩子有没有从学校回来’,它真的看到了他背着书包进门,还提醒我‘他看起来有点累’——这感觉太真实了。”

别再让智能设备“智障”了:这次真修好了老毛病

过去几年,用户对智能音箱和家居系统的抱怨,几乎成了互联网段子:说“关灯”,结果全屋断电;喊“放点音乐”,它给你播起80年代老歌;给台灯起名叫“我的小太阳”,系统愣是认不出它是灯。

这一次,谷歌用Gemini模型彻底重构了设备的理解逻辑。

首先是“指令精准化”。现在你说“关掉厨房的灯”,系统会自动识别你家厨房里哪几盏是灯,哪几个是智能插座、咖啡机、烤箱——不会误关。即使你家有多个住宅,它也能根据你的语音位置、设备绑定关系,精准判断你指的是哪个家。

其次是“命名自由”。你给空气净化器叫“呼吸守护者”,给智能窗帘叫“云遮月”,Gemini会结合设备型号、品牌信息和使用习惯,自动归类。它不再死记硬背你起的名字,而是理解“这东西是干嘛的”。

还有那个让人抓狂的“抢话”问题——你刚说“播放”两个字,它就插嘴:“好的,正在播放《告白气球》。”现在,系统学会了耐心等你说完。语音交互的节奏,终于像人与人对话那样自然了。

不只是会听话,它还更懂你的生活

底层模型升级到轻量化多模态Gemini 2.5,让整个系统响应更快、判断更准。

问天气?它不再只报个温度,而是说:“今天下午3点后有阵雨,你晾在阳台的被子最好收一下。”

查新闻?它能结合你家的作息习惯:“你通常早上7点听新闻,今天头条是美联储降息,需要我读给你吗?”

音乐播放的优化,也让乐迷直呼“终于等到这一天”。过去说“播放周杰伦新歌”,它常把翻唱版或MV混进去。现在,系统能识别“新发布”“官方音源”“专辑首发”等关键词,优先推送Spotify和YouTube Music上刚上线的原版。一位用户在推特上晒出截图:“我刚说了句‘放《红颜》’,它直接跳到2026年3月1日发布的重制版——连我都忘了这首歌还有这个版本。”

更贴心的是,系统现在能主动提醒你:“你连续三天没开客厅灯,是不是最近加班太晚?”或“冰箱里的牛奶快过期了,要我帮你加进购物清单吗?”——这些不是广告推送,而是基于你家真实使用数据的无声关怀。

隐私?谷歌这次没踩雷

很多人担心:摄像头“看懂”一切,会不会偷窥?

谷歌明确表示,所有实时分析都在本地设备端完成。画面数据不会上传云端,只有处理后的语义信息(如“有人进入”“狗在跑”)才会用于响应指令。用户可随时在App中关闭“实时理解”功能,或为每个摄像头设置“隐私模式”——开启后,摄像头画面自动模糊,仅保留运动检测。

此外,所有语音指令都支持“语音指纹”识别,只有家庭成员的声音才能触发高级功能。儿童或访客的提问,系统会礼貌回应:“抱歉,这项功能需要主人授权。”

这场升级,不是为了炫技,而是让科技真正藏进生活里。你不再需要记住“哪个设备该用哪个App”,也不用再对着摄像头喊“喂,你能看到我吗?”——家,终于开始主动理解你了。