最新消息:关注人工智能 AI赋能新媒体运营

加拿大政府警告OpenAI:未改进安全机制将强制立法

科技资讯 admin 浏览

加拿大政府向OpenAI亮红牌:不改,就立法

最近,加拿大政府对OpenAI发出了一记重锤。一位高级官员明确表示:如果OpenAI不能在短期内大幅提升其AI系统的安全防护能力,渥太华将启动立法程序,强制要求其做出根本性改变。这不是威胁,而是倒计时。

事件的导火索,是2月10日发生在不列颠哥伦比亚省小镇的一起惨剧。18岁青年杰西·范·罗特塞拉尔(Jesse Van Rootselaar)持枪袭击社区,造成8人死亡后自杀。调查发现,他在案发前曾多次使用ChatGPT探讨暴力极端思想,甚至试图获取武器制造信息。他的账号早在2023年就被OpenAI因违反使用政策封禁——但公司从未向警方通报。

“封号就完事了?”加拿大司法部长肖恩·弗雷泽(Sean Fraser)在记者会上语气沉重,“我们不是在处理一个技术故障,而是在面对一条人命的代价。你封了账号,却没告诉任何人他可能正在计划杀人——这叫‘合规’?这叫冷漠。”

加拿大政府已与OpenAI高层进行了多轮闭门会谈,要求对方建立“主动报告机制”——即当AI系统检测到用户有明确的暴力倾向、自残或袭击计划时,必须立即向执法机构提供必要信息,哪怕这意味着突破部分隐私边界。OpenAI目前仍坚持“不主动举报”原则,理由是“避免误报”和“保护用户隐私”。但加拿大官员反问:当一个人的对话已经指向真实暴力,隐私权还该高于生命权吗?

这不是加拿大第一次对AI公司动真格。去年,该国已通过《数字平台法案》,要求平台对有害内容承担法律责任。如今,这起枪击案让政府下定决心:AI公司不能躲在“技术中立”的盾牌后面。一位匿名安全顾问透露:“我们正在起草一项新法案,可能要求所有面向公众的AI模型必须接入国家危险行为预警系统,否则禁止在加拿大运营。”

舆论一片哗然。支持者认为,这是“科技必须为社会负责”的必然一步;反对者则担心,这会开启“AI监控”的危险先例。但没人能否认一个现实:AI正在成为极端思想的加速器。2023年,美国联邦调查局曾报告,至少17起校园暴力事件中,嫌犯曾向AI助手寻求作案建议。OpenAI不是唯一一家被质疑的公司,但它是全球影响力最大的那一家。

现在,OpenAI站在了十字路口。是选择继续低调应对,还是主动站出来,与政府、学者、心理专家共同建立一套真正能救命的AI安全协议?加拿大没有耐心等“未来方案”。他们要的是现在就行动。

公众在问:你的AI,知道你打算杀人吗?

这件事之所以引爆全网,不只是因为它发生在加拿大,更因为它戳中了每个人心底的恐惧——我们每天使用的AI助手,会不会在某个时刻,成为暴力的帮凶?

一位加拿大母亲在社交媒体上写道:“我儿子每天用ChatGPT写作业。如果他某天开始问‘怎么用枪最快杀死人’,我的AI会告诉我吗?还是只会说‘我不能提供这类信息’,然后默默封号?”

这不是科幻。在Reddit和4chan上,已有大量帖子记录用户如何绕过AI的“道德过滤器”——用隐喻、代号、多轮试探,诱导AI泄露危险信息。OpenAI的过滤系统能拦住85%的明显暴力请求,但剩下那15%,往往就是致命的那一个。

而真正让公众愤怒的,不是AI没拦住,而是它“拦了,却不说”。没有预警,没有追踪,没有联动。一个账号被封,就像水滴蒸发,没人知道它从哪来,要往哪去。

现在,加拿大政府不是在谈“监管”,而是在谈“责任”。他们要的不是更聪明的AI,而是更有良知的公司。

OpenAI的回应至今仍模糊。他们发布了一篇技术博客,称“正在优化危险内容识别模型”,但拒绝承诺任何举报机制。这在加拿大人眼里,无异于“等死”。

距离政府设定的“最后期限”还有不到60天。如果OpenAI不拿出实质性改变,这项立法将进入议会快速通道。届时,不只是加拿大,欧洲、澳大利亚、新西兰,都可能跟进。

这不是一场关于技术的辩论。这是一场关于人性底线的较量。

全球AI公司都在盯着

这场风波,早已超越国界。欧盟正在起草《AI责任法案》,美国参议员已要求FBI调查OpenAI是否涉嫌“过失致人死亡”。中国AI企业也悄悄调整了内容审核策略,部分平台开始对“极端思想咨询”设置人工复核流程。

但真正关键的,是OpenAI的态度。作为全球AI的风向标,它的选择,将决定整个行业的底线。

如果它妥协了,意味着科技公司开始为AI的后果负责——哪怕这意味着失去部分“自由”。

如果它拒绝了,那我们面对的,将不是一个公司的问题,而是一个时代的问题:当AI比人类更懂你的想法,谁该为它沉默的代价买单?

答案,正在渥太华的会议室里,被一笔一划写进法律草案里。