英国警方因AI编造“虚构球赛暴力”事件,紧急叫停微软Copilot
英国西米德兰兹警察局近日因一场由人工智能制造的“幻觉”陷入前所未有的信任危机。该局曾依据微软AI助手Copilot提供的虚假情报,建议禁止以色列特拉维夫马卡比队球迷入场观看一场在伯明翰举行的欧协联比赛。然而,调查发现,Copilot所描述的“球迷冲突”根本不存在——那场所谓“即将爆发暴力”的比赛,压根就没安排在赛程上。
这一错误并非简单的技术失误,而是直接导致了执法决策的严重偏差。警方在未核实信息来源的情况下,将AI生成的内容作为行动依据,险些引发一场针对特定国籍球迷的歧视性禁令,甚至可能激化国际体育赛事中的族群对立。事件曝光后,舆论哗然,公众质疑:当警察的决策依赖一个连比赛是否存在都搞不清的AI时,公共安全还靠得住吗?
高层震荡:前局长因误导国会提前退休
事件的连锁反应迅速波及管理层。前任警察局长Craig Guildford在议会听证会上被追问AI使用情况时,前后说法矛盾,先是声称“AI仅作辅助参考”,后又承认“部分建议直接来自系统输出”。面对议员尖锐质询和媒体持续追访,Guildford在舆论压力下于数周内宣布提前退休,结束了长达30年的警界生涯。
英国警察行为独立办公室(IOPC)已正式介入调查,重点审查警方是否违反《数据保护法》与《公共部门平等义务》,以及是否存在系统性忽视事实核查的管理失职。有内部消息人士透露,警方内部曾有职员多次提醒“AI输出内容不可信”,但未被上级重视。
停用AI,但不是放弃技术
现任代理局长Scott Green在记者会上态度明确:“我们不是反对技术,而是反对不负责任地使用技术。”他宣布,即日起全警队暂停使用Copilot及其他类似AI工具,直至建立一套可执行、可审计、有法律效力的使用规范。
新政策将包括三项硬性要求:所有AI生成内容必须由两名以上警官交叉验证;任何涉及公众安全、移民或国际关系的建议,必须附带原始数据来源;所有AI辅助决策需留痕备案,接受独立审查。Green强调:“我们不会让一个程序替我们决定谁可以看球、谁不能进球场。”
全球执法机构敲响警钟
西米德兰兹事件并非孤例。去年,美国芝加哥警方曾因AI预测系统误判高风险区域,导致少数族裔社区被过度巡逻;今年初,澳大利亚墨尔本警方使用AI分析社交媒体言论,误将一名普通球迷的讽刺帖认定为“暴力威胁”,引发人权组织抗议。
英国议会下院内政委员会已紧急召开听证会,要求微软、谷歌等科技公司公开AI在执法场景中的训练数据来源与错误率。欧盟正在起草《执法AI使用禁令清单》,明确禁止AI用于“预测性执法”“身份关联”和“情绪判定”等高风险领域。
这场风波揭示了一个更深层的问题:当技术公司把AI包装成“智能助手”推向公共部门,却不愿承担误用后果时,谁来为错误的决策买单?
公众声音:我们要的是警察,不是聊天机器人
伯明翰当地球迷组织“安全观赛联盟”发表声明:“我们不需要AI告诉我们谁是‘危险球迷’。我们只需要警察了解我们的社区、尊重我们的文化、用常识判断风险。”
一位曾在西米德兰兹警队服务22年的退休警官对BBC表示:“我当年靠走访社区、和球迷聊天、听酒吧老板的风声来预判冲突。现在?一个AI在几秒钟内编出一个根本不存在的‘暴乱剧本’,我们却信了。这不叫进步,这叫退化。”
目前,西米德兰兹警方正与牛津大学伦理研究中心合作,制定全球首个“警务AI使用白皮书”。他们说,技术可以帮上忙,但前提是——人,必须始终在环中。