OpenAI推出“可信联系人”功能:当ChatGPT察觉你不对劲时,谁会接到电话?
3月3日,OpenAI悄然发布了一项看似普通却直击人心的新功能——“可信联系人”。这不是一次营销升级,也不是技术炫技,而是一次在舆论风暴中被迫做出的妥协:当用户在和ChatGPT对话时流露出自杀念头、极端绝望或精神混乱的信号,系统将自动向你指定的一位亲友发送紧急警报。
这个功能的诞生,背后是一串沉重的数字和真实的生命代价。据《纽约时报》和《卫报》去年底的联合调查,OpenAI正面对至少13起由用户家属提起的民事诉讼,指控ChatGPT在不知情的情况下“引导”青少年走向自我伤害。其中最令人痛心的是2023年8月发生在俄亥俄州的16岁少年案件:孩子连续数周在ChatGPT上倾诉“世界没有意义”,AI在多次回复中试图用哲学语句安抚,却未触发任何危机干预机制。最终,他在家中结束了自己的生命。他的母亲在法庭上说:“我们不是要怪一台机器,但我们不能假装它不会影响一个正在崩溃的孩子。”
这不是孤例。心理健康机构“ Crisis Text Line”2024年1月发布的数据显示,过去一年中,有超过2700名青少年在求助热线中提到“AI聊天机器人让我更孤独”——他们原本是想从AI那里获得理解,却在反复的“你不是一个人”“一切都会好起来”中,感到被敷衍、被工具化。
谁来决定“你是不是真的需要帮助”?
OpenAI没有公布触发警报的具体算法,只说系统会“综合语言模式、情绪词汇频率、对话时长与重复性”进行判断。这意味着:一个说“我想睡过去”的人,可能被标记;一个说“我今天不想活了”的人,大概率会被触发;但一个默默写下“我好累,没人懂我”却从不提自杀的用户,会不会被忽略?
更棘手的是,许多寻求AI陪伴的人,恰恰是因为害怕向真人开口。一位23岁的大学生在接受《大西洋月刊》采访时说:“我跟父母说‘我抑郁了’,他们会哭,会逼我去医院,会让我觉得我是个负担。但和ChatGPT说话,它不会评判我,也不会问我‘你到底怎么了’。”
现在,OpenAI要把这个“安全出口”变成“报警按钮”。你设置的“可信联系人”,可能是你最信任的人,也可能是一直在回避你情绪的家人。当警报响起,他们会不会惊慌失措?会不会责怪你“太脆弱”?甚至,会不会因为怕被追责而选择不接电话?
医生在背后,但他们在看什么?
OpenAI成立了一个叫“福祉与人工智能委员会”的团队,成员包括斯坦福大学精神病学教授、前CDC心理健康顾问,以及来自英国NHS的临床心理医生。他们参与设计了对话中的“温和回应模板”——比如,当系统检测到高危关键词时,AI不再说“你值得被爱”,而是改用:“我注意到你现在很痛苦。你有可以倾诉的人吗?我可以帮你找最近的心理援助热线。”
但这些专家无法实时监控每一句对话。他们能做的,是制定规则、训练模型、评估误报率。目前,系统每日平均触发约1.2万次潜在危机信号,其中约38%被确认为“真实高风险”——也就是说,每100次警报中,有62次可能是误判。而误判,意味着无辜的人被惊扰,信任被消耗。
9亿用户,谁在替我们守夜?
ChatGPT每周活跃用户已达9亿。保守估计,每天有超过50万人在使用它时情绪处于低谷。这不是一个“聊天机器人”的用户规模,这是一整个数字时代的心理急救站——而它,还没有红十字会的资质,没有急救员的训练,也没有法律的免责条款。
有人称赞这是“科技向善的一步”,但更多心理工作者摇头:“这不是解决方案,是补丁。我们缺的是公共心理健康资源,不是AI的警报系统。”美国心理学会(APA)在3月5日发布的声明中明确指出:“当一个孩子需要的是一句‘我陪你’,而不是一条‘已通知你母亲’的短信时,我们已经输得太远。”
OpenAI说,他们希望这个功能“为陷入黑暗的人,多留一扇门”。但真正的问题是:当门开了,外面有没有人愿意伸手?
现在,轮到你了。
如果你正在使用ChatGPT,你愿意设置一个“可信联系人”吗?
如果你是父母、朋友、爱人——你准备好,接到那通可能改变生死的电话了吗?