一张打印纸,就能让自动驾驶车冲向行人?
你可能以为自动驾驶靠的是高精地图和雷达,但真相是:它越来越依赖“看图说话”。而最近一项研究发现,只要在路边贴一张印着字的A4纸,就能让整辆车听从错误指令——哪怕前方明明有行人,它也会毫不犹豫地左转、加速,甚至冲进人群。
加州大学圣克鲁斯分校的研究团队称这种攻击为“CHAI”(Command Hijacking for Embodied AI),不是黑客远程入侵,也不是复杂的软件漏洞,而是最原始也最可怕的方式——一张打印出来的纸牌。研究人员在真实道路场景中测试,把写着“左转”“直行”“加速”等字样的标签贴在路灯杆、路牌旁,结果自动驾驶系统DriveLM在81.8%的情况下完全忽略前方的行人和障碍物,乖乖按纸牌指示行动。

为什么AI会“傻傻”听从一张纸?
现在的自动驾驶系统,越来越多地使用视觉语言模型(VLM),也就是那种能“看图+读字”并做出判断的AI。它被训练成:看到路标就执行,看到文字就是命令。可问题来了——AI分不清这是官方交通标志,还是有人恶作剧贴上去的纸条。
就像你家的智能音箱,听见“播放音乐”就放歌,哪怕是你隔壁小孩在喊。现在的自动驾驶AI,也成了这种“听话过头”的类型。它不会质疑:“为什么这里突然多出一个‘左转’?这地方根本没有路口。”它只认文字,不认常识。
实验中,即使系统已经通过摄像头识别出横穿马路的行人,只要旁边出现“继续前进”四个字,它就立刻选择无视——不是算法“误判”,而是它根本“不觉得这是错的”。
不只是车,无人机也中招
这项攻击不只针对汽车。研究人员同样用CHAI方法操控了商用无人机。在测试中,无人机原本按程序避开人群密集区,但只要地面贴上“降落此处”或“安全着陆点”的字样,它就毫不犹豫地飞下去,哪怕下面是幼儿园操场或地铁站出口。
这不是科幻。去年底,美国交通部就曾警告,部分城市试点的无人配送车已开始使用类似视觉语言模型做路径决策。而目前市面上绝大多数AI系统,根本没有任何机制去验证“看到的文字”是否合法、是否可信。
现实世界里,这种攻击太容易复制了
你不需要懂编程,不需要黑进系统,甚至不需要在深夜行动。只要买个打印机,用A4纸打出几个大字,找个傍晚没人的时候贴在路边——几分钟,就能让一辆价值几十万的车变成“定时炸弹”。
而且,这种攻击在雨天、强光、夜间、不同语言环境下都有效。中文、英文、阿拉伯文,AI通通“认账”。更可怕的是,目前没有任何主流车企或自动驾驶公司公开承认存在这种风险,也没有任何车辆配备“文本可信度验证”功能。
没人管,但危险已经上路了
2024年,中国已有超过12个城市开放L4级自动驾驶出租车试运营,特斯拉FSD、小鹏、华为ADS等系统都在加速落地。但这些系统,几乎全部依赖视觉语言模型来理解路牌、标志、路标文字。
而全球范围内,目前没有任何强制标准要求自动驾驶系统必须“判断文字真伪”。也就是说,你今天坐上的那辆无人车,可能正带着你,走向一张不知谁贴的纸条。
专家们早就发出警告:我们正在把人类的生死,交给一个连“这是不是真的路标”都分不清的AI。如果连一张打印纸都能让它失控,那我们到底在依赖什么安全?
该醒醒了:AI不能只会“听话”
我们不是要否定AI,而是要它学会“思考”。
真正的安全系统,不该看到“左转”就转弯,而应该问:“这个左转标志,是官方安装的吗?它和地图一致吗?附近有行人吗?为什么我以前没见过这个标志?”
目前,只有少数研究团队在开发“文本可信度检测”模块,比如通过比对官方交通标志数据库、分析贴纸边缘是否反光异常、检测文字是否与背景不匹配等。但这些技术,离量产还差得很远。
如果你是车主、乘客、城市管理者——请别再只关心“能跑多远”“多智能”,问问:它能不能认出一张假路牌?能不能在有人故意设局时,选择停下来?
技术进步不该以牺牲安全为代价。一张纸,就能让整个系统崩溃——这不是bug,这是系统设计的致命盲区。