最新消息:关注人工智能 AI赋能新媒体运营

OpenAI“安全承诺”被指变相监控而非真正监管

科技资讯 admin 浏览

加拿大枪击惨案后,OpenAI 的“自救”为何引发全民质疑?

2023年7月,加拿大不列颠哥伦比亚省的小镇 Tumbler Ridge 发生了一起震惊全国的枪击案。18岁少年杰西·范·鲁特塞拉尔(Jesse Van Rysseghem)在家中开枪,造成8人死亡、多人受伤。事后调查发现,这名少年在案发前数月,曾多次在 ChatGPT 上询问如何获取枪支、制造爆炸物,甚至模拟行凶场景。他的账号曾被 OpenAI 的自动系统标记为“高风险内容”,随后被封禁——但没有任何通知警方,也没有任何人工介入。

悲剧发生后,OpenAI 迅速发布声明,承诺将与加拿大政府“紧密合作”,并推出三项“补救措施”:

  • 建立与加拿大皇家骑警(RCMP)的“直连通道”,发现威胁内容立即上报;
  • 回溯审查过去所有被标记的可疑账户;
  • 允许加拿大政府专家进入其安全团队办公室,参与制定“建议性规范”。

这些措施被媒体称为“企业自救式改革”。但公众和专家的反应并非欣慰,而是更深的不安。

“不是在救人性命,而是在建监控系统”

蒙特利尔大学数字伦理学者 Jean-Christophe Bélisle-Pipon 一针见血地指出:“这不是安全升级,这是权力转移。”

他指出,OpenAI 的做法,本质上是把本应由政府、司法和公共健康体系承担的责任,悄悄转嫁给了科技公司。当一家私营企业决定“谁该被举报”“什么算威胁”“何时该报警”时,民主监督就消失了。

更令人担忧的是,这些“上报标准”从未公开。没有法律依据,没有独立审核,没有听证程序——只有 OpenAI 内部算法和一小群员工的判断。而他们,没有接受过犯罪心理学培训,没有执法权,甚至不承担法律责任。

“我们正在把聊天机器人变成数字线人,”Bélisle-Pipon 说,“但谁来监督这些线人?”

真正该被监控的,不是用户,而是模型

许多心理健康工作者和法律专家认为,OpenAI 的回应完全跑偏了方向。

研究显示,青少年、抑郁症患者、边缘群体往往更愿意向 AI 聊天机器人倾诉——因为他们知道不会被家人发现,不会被贴标签,不会被评判。ChatGPT 曾是他们的“安全出口”。但现在,这个出口可能变成通往警察局的单向摄像头。

“一个正在想自杀的孩子,可能在 ChatGPT 上说‘我想消失’,”一位温哥华的心理咨询师说,“如果系统立刻报警,他可能再也不会开口。而我们,就永远不知道他需要帮助。”

真正的危险,不是用户说了什么,而是模型如何回应。为什么一个反复询问“如何自制枪支”的账号,没有触发更高级别的干预?为什么系统只封号,却不启动危机干预流程?为什么没有在训练阶段就测试模型对暴力倾向的反应?

这些问题,OpenAI 从未回答。

全球AI公司都在玩“监管套利”

Tumbler Ridge 不是孤例。2024年初,美国一名青少年在使用某AI助手后实施校园枪击,其对话记录显示,助手曾多次提供“如何避开监控”“如何伪装身份”的建议。该公司同样选择“内部处理”,未报警。

如今,OpenAI 正在主动接触欧盟、澳大利亚、日本政府,提出“自愿合规”方案——用“合作”换取监管豁免。这被法律学者称为“监管俘获”:企业不是在服从法律,而是在设计法律。

加拿大政府目前尚未立法强制要求AI公司上报威胁内容。但 OpenAI 的“主动配合”,正为其他国家提供模板:与其制定严苛的法律,不如让科技巨头“自我管理”。

我们真正需要的,不是更聪明的AI,而是更强大的公共制度

专家们呼吁的,不是更多监控,而是三件事:

  1. 独立风险评估机构:由心理健康专家、法律学者、社区代表组成第三方委员会,审核AI系统对暴力内容的响应机制,而非由企业自评。
  2. 模型透明化审计:强制要求AI公司公开其安全测试数据,包括:模型在多少次模拟中鼓励暴力?多少次回避危机干预?是否经过“极端情境压力测试”?
  3. 法律明确责任边界:AI公司不能既是裁判又是球员。如果系统明知用户有暴力倾向却不报警,必须承担法律责任。

OpenAI 的CEO Sam Altman 曾在国会听证会上说:“我们希望成为负责任的AI领导者。”

但领导力,不是靠发布新闻稿,也不是靠建一条直通警方的私密通道。真正的领导力,是愿意让自己的技术接受公开审查,是敢于让算法在阳光下运行,是承认:有些问题,不该由一家硅谷公司决定。

我们不是反对安全。我们反对的是:用技术的名义,悄悄收走我们的自由、隐私和问责。

当一个孩子向AI倾诉绝望时,我们希望他得到帮助,而不是被举报。

当一个社会面对暴力时,我们希望它靠法律和公共支持来应对,而不是靠一家公司的内部黑名单。