谷歌AI概览:90%准确率背后的惊人误差
《纽约时报》最新报道指出,谷歌AI概览(AI Overviews)的“准确率”约为90%。听起来不错,但别被数字骗了——这背后是每天超过5万亿次搜索。换算下来,每小时可能生成超过5700万条错误答案,平均每分钟就有近100万条误导性信息被推到用户眼前。
表面进步,实则隐患加深
初创公司Oumi对谷歌搜索结果进行了分析,覆盖4326个查询。数据显示,Gemini 2在2023年10月的准确率为85%,到2024年2月,Gemini 3提升到91%。表面看是进步,但问题藏得更深:AI概览与原始网页内容不一致的比例,从37%飙升至56%。也就是说,超过一半的“权威摘要”,其实和它引用的来源对不上。
更讽刺的是,有些错误答案,居然来自虚假内容。有记者故意发布一篇虚构的“胡克·霍根去世”博客,谷歌AI在次日就把它当真引用,写进了概览。这不是系统误判,是被人为操控了。
自相矛盾的“权威回答”
一位用户搜索“Hulk Hogan死了吗?”,AI概览清清楚楚写着:“没有可信报告显示霍根已去世。”可就在同一页面下方,赫然挂着一条新闻标题:“霍根之死谜团加深”。一边否认,一边暗示——用户该信哪个?
这不是个例。许多用户反馈,AI概览经常“一本正经地胡说八道”:把过时的新闻当最新动态、把论坛帖子当权威出处、甚至把广告文案包装成事实。有人搜索“糖尿病饮食建议”,AI推荐了“每天吃5个苹果”,而原网页根本没这说法。
谷歌的回应:质疑测试,回避问题
面对这些质疑,谷歌发言人只说Oumi的测试“不能真实反映用户搜索行为”,却没解释为什么AI会引用假博客、为什么摘要和来源矛盾频发。没有公开修复方案,没有透明度报告,也没有承认系统存在结构性缺陷。
更值得警惕的是,谷歌正在全球范围内推广AI概览,取代传统十条蓝色链接。这意味着,越来越多的人,正在用AI生成的“一句话答案”做决策——从健康建议、疫苗信息,到政治立场、金融投资。错误的代价,可能远超一次搜索失败。
你还在相信AI概览吗?
如果你最近用谷歌查过“吃什么治头痛”“如何判断抑郁症”“某明星是否去世”,请回头看看——你看到的答案,是真的来自权威来源,还是AI拼凑出来的“听起来合理”的幻觉?
技术进步不该以牺牲真相为代价。当AI能轻易伪造权威,我们真正该问的,不是它有多聪明,而是:谁在为它的错误负责?