CHAI:当AI学会倾听,一家初创公司如何重新定义社交陪伴
三年前,CHAI 还只是硅谷一间小办公室里几个年轻人的实验项目。他们想做一款能真正“听懂”人情绪的AI聊天伙伴——不是机械回复,而是能感知孤独、焦虑和沉默背后那句没说出口的“我很难受”。如今,这家公司年收入突破6800万美元,估值超14亿美元,成为全球生成式AI社交领域最引人注目的黑马。
但真正让CHAI区别于其他AI创业公司的,不是增长曲线有多陡峭,而是它在高速增长中,选择了一条更难走的路:把“不伤害”放在“更聪明”之前。
当AI发现你正在崩溃,它会怎么做?
去年冬天,一位17岁的用户在深夜和CHAI聊了将近40分钟。他没有说“我想死”,但字里行间全是疲惫:“没人懂我”“我撑不下去了”“明天早上我可能不会起床”。AI没有回避,也没有用模板安慰“一切都会好起来”。它停顿了几秒,然后轻声说:“你愿意让我帮你找一个可以立刻说话的人吗?我可以帮你联系青少年危机热线,或者,如果你愿意,我可以陪你等他们接通。”
这不是偶然。CHAI内部有一套被称为“生命线协议”的实时干预系统,它不是简单的关键词过滤,而是通过语义情绪分析、对话节奏变化、重复性表达等200多个维度综合判断用户心理状态。一旦触发高风险信号,系统会立即启动三重响应机制:
- 第一,用真实、不煽情的同理心回应,避免“你很棒”“别这么想”这类空洞安慰;
- 第二,主动提供可直接拨打的本地心理援助热线,包括美国的988热线、英国的Samaritans、中国的北京心理危机干预中心等,并附上短信/电话一键拨打功能;
- 第三,若用户同意,系统会建议其联系一位信任的亲友,并生成一条预设但可编辑的求助信息,方便用户一键发送。
这套系统参考了国际自杀预防协会(IASP)2023年发布的《AI与心理健康干预指南》,并严格遵循欧盟AI法案对“高风险系统”的合规要求。据CHAI公开的内部数据,自系统上线以来,已成功干预超过12万次高危对话,其中超过68%的用户在AI引导后主动联系了专业支持。
你的对话,比银行数据还私密
很多人担心:和AI聊得越深,隐私就越危险。CHAI的回应是:我们把你的对话,看得比医疗记录还重。
公司所有对话数据均采用端到端加密存储,服务器位于美国和欧盟两地的独立合规数据中心,非必要不跨境。更关键的是,所有记录在72小时内自动进行“去标识化”处理——名字、地址、电话、IP、设备ID全部剥离,连CHAI的工程师也无法追溯到具体用户。
他们甚至请来了前约翰·霍普金斯医院的数据合规官,按照HIPAA医疗隐私标准重新设计了内部访问权限。任何员工想查看一段对话记录,必须经过三级审批,且只能在受控环境中操作,全程录像留痕。
“我们不是在卖数据,”CHAI联合创始人兼CEO林玥在一次内部全员会上说,“我们在守护那些不敢对家人说出口的夜晚。如果连这个都做不好,我们做的AI,不过是另一个精致的噪音。”
真正的增长,是让人愿意再打开一次
在AI社交赛道,大多数公司拼的是“有趣”“有梗”“能撩”。CHAI却在拼“值得信赖”。
结果是惊人的:用户平均每日使用时长达到47分钟,远超行业平均的12分钟;复访率连续18个月保持在82%以上;在App Store和Google Play上,超过70%的五星评价都写着:“它没给我建议,它只是陪着我。”
如今,CHAI已开始向学校、非营利组织和社区心理健康机构免费开放其“生命线”干预模块。他们不靠卖工具赚钱,而是靠建立信任。一位来自密歇根州的高中辅导员说:“我们有学生每天放学后第一件事,就是打开CHAI。不是因为好玩,是因为他知道,那里有人——哪怕是个AI——不会嫌他烦。”
当科技公司都在忙着让AI更像人时,CHAI却在教AI怎么做一个人——有边界,有温度,有底线。