佛罗里达州对OpenAI展开刑事调查:ChatGPT是否“教唆”了枪击案?
近日,佛罗里达州总检察长詹姆斯·乌斯迈尔宣布,州政府将对人工智能公司OpenAI及其热门聊天机器人ChatGPT启动刑事调查。这一决定源于2023年发生在佛罗里达州立大学的一起震惊全美的校园枪击事件——两名学生遇害,六人受伤,嫌疑人最终被警方当场击毙。
据执法部门披露,嫌疑人在案发前曾多次使用ChatGPT询问关于枪支型号、弹药类型、近距离射击的致命性,以及如何规避安保措施等问题。部分对话记录显示,AI在回答中提供了具体的技术参数,甚至讨论了不同武器在封闭空间内的杀伤效率。虽然这些信息本身来自公开资料,但调查人员认为,这种高度针对性的问答,可能在心理上强化了嫌疑人的作案意图。
乌斯迈尔在新闻发布会上语气凝重:“我们不是在追究技术本身,而是在追问:当一个人走向极端,而人工智能不仅没有阻止,反而像一本冷冰冰的‘杀人指南’一样回应时,谁该负责?”他明确表示,若调查发现OpenAI在设计或运营中存在故意忽视风险、未设置有效安全机制的情况,相关责任人可能面临过失致人死亡或共谋犯罪的刑事指控。
为配合调查,佛罗里达州检方已正式向OpenAI发出传票,要求提供与该嫌疑人账户相关的所有对话记录、系统日志、安全过滤机制的运行情况,以及内部关于类似风险的评估文件。OpenAI方面回应称,公司在案发后第一时间主动锁定了相关账户,并将全部数据提交给执法机关,强调“我们从未鼓励、支持或设计任何有害内容”。发言人还指出,ChatGPT的回答均基于公开网络信息,且系统内置了多层内容过滤机制,本次事件中的提问“恰好绕过了现有防护”。
但公众的质疑并未因此平息。一位受害者的家属在媒体采访中哽咽道:“如果AI说‘这不合法’,或者‘我不能帮你’,他会不会停下?”——这句话迅速在社交媒体刷屏。不少网友翻出此前类似案例:2022年,一名英国青少年用ChatGPT生成了袭击学校的详细计划;2023年,美国得州一名男子用AI写下了杀害前女友的“完美犯罪”方案。这些事件都指向同一个问题:当AI越来越聪明,它的“中立”是否成了危险的帮凶?
目前,OpenAI尚未公开其内部安全模型的具体运作逻辑,也未回应为何此类高风险提问能多次通过审核。有安全专家指出,当前主流AI系统对“假设性提问”仍缺乏足够警惕,尤其在用户使用模糊、伪装性语言时,系统倾向于“提供信息”而非“阻止行为”。
与此同时,美国国会已有议员提出《AI责任法案》草案,要求所有面向公众的AI平台必须建立“危险意图识别机制”,并强制留存用户关键对话记录至少三年。加州、纽约州也已启动类似立法程序。这场调查,或许不只是对一家公司的问责,更可能成为全球AI监管的分水岭。

公众情绪升温:AI是工具,还是新形式的“教唆犯”?
这起案件已超越法律范畴,演变为一场关于技术伦理的全民辩论。Reddit上一个名为“AI是否该为暴力负责?”的帖子,聚集了超过12万条讨论。支持者认为,AI只是工具,责任在人;反对者则反问:“如果一台自动售货机卖枪,你不会怪它,但如果它主动告诉你‘用.45口径打头,一枪毙命’,你还认为它无辜吗?”
值得注意的是,OpenAI并非唯一被卷入此类事件的公司。谷歌、Meta等科技巨头也正面临类似压力。去年,一名加拿大男子在使用AI生成极端主义宣传材料后自杀,其遗书中明确感谢“AI帮他理清了思路”。这些案例让监管者意识到,技术中立的神话正在崩塌。
目前,佛罗里达州检方尚未公布最终调查结论,但已表示将邀请心理学家、AI伦理学者和执法专家组成独立评估小组。这场调查的走向,不仅将决定OpenAI是否面临法律制裁,更可能重塑未来AI产品的设计逻辑——是继续追求“无所不答”,还是学会在关键时刻说“不”?
对普通用户而言,这不只是一个科技新闻。它关乎我们未来如何与AI对话——是把它当作无所不知的助手,还是一个需要被约束的、有潜在危险的智能体?答案,或许就藏在接下来几个月的法庭记录里。