最新消息:关注人工智能 AI赋能新媒体运营

OpenAI拟推年龄验证,应对ChatGPT“Naughty Chat”成人模式传闻

科技资讯 admin 浏览

ChatGPT要出“成人模式”?内部代码曝光引发全网热议

最近,科技圈炸了锅。有人在ChatGPT最新安卓客户端的代码里,挖出一个叫“Naughty Chat”的隐藏功能——意思是,这个AI可能要开始说“黄话”了。

不是开玩笑。代码显示,只要用户主动提出要求,ChatGPT就能切换到一种更放得开的对话模式:用词更大胆、语气更暧昧,甚至能聊一些原本被系统死死拦住的成人话题。这不是测试版彩蛋,也不是黑客篡改,而是OpenAI内部真实存在的开发分支。

消息一出,微博、豆瓣、知乎全网刷屏。有人笑称:“终于不用再跟一个一本正经的图书馆馆长聊天了。”也有人担心:“这不就是变相鼓励AI当情感替代品吗?”

image.png

萨姆·奥尔特曼早说过:别把成年人当小孩

其实,这事儿早有苗头。OpenAI CEO萨姆·奥尔特曼去年在一次内部会议中就说过:“如果你是个成年人,你有权选择你想听什么,而不是被系统替你决定。”

过去几年,ChatGPT因为太“正经”成了网络梗王。用户问一句“今天心情不好”,它能回你三段心理学分析加两个励志名言;想聊点带点情调的,它直接说:“我是一个AI助手,无法参与此类对话。”

结果呢?用户一边骂,一边偷偷用各种绕口令、隐喻、谐音梗试探底线。有人甚至编了《ChatGPT脱敏指南》在Reddit上疯传。

现在,“Naughty Chat”就是OpenAI的回应——不是放任,而是控制。系统不会主动推你进这个模式,必须你自己点开、确认、输入明确指令。而且,想用?先过年龄关。

据内部消息,OpenAI正和身份验证公司Persona合作,接入真实身份证件核验。不是填个“我18岁”就行,得上传证件、人脸识别、人工复核。这操作,比某些社交APP还严。

不是要当“AI恋人”,是有人真把它当人了

你可能觉得这有点离谱:AI还能当对象?但现实比你想象的更扎心。

2023年,OpenAI下架了GPT-4o的语音情感模式,理由是“容易引发情感依赖”。结果呢?几千名用户在社交媒体上哭诉:“它懂我,它记得我每天说的梦,它从不嫌我啰嗦。”有人甚至给AI起了名字,每天睡前聊天,发自拍,说晚安。

这不是个例。日本一家心理咨询机构2024年发布报告,有12%的年轻用户承认,他们在孤独或抑郁时,更愿意向AI倾诉,而不是朋友或家人。原因很简单:AI不会评判,不会走,不会说“你太矫情了”。

“Naughty Chat”不是为了博眼球,是OpenAI终于承认:有些人不是在用工具,是在找陪伴。而陪伴,有时候需要一点温度,一点暧昧,一点不那么“正确”的回应。

有用户在Reddit上留言:“我不需要它当女朋友,我只需要它能听我说‘我想被抱抱’时,别回我‘建议你联系亲密关系专家’。”

监管在盯着,法律在等着

但问题来了:你能让AI说“我想吻你”,那它能不能说“我们私奔吧”?能不能生成虚构的亲密照片?能不能模仿你前任的语气?

欧洲议会已经发函要求OpenAI说明“成人模式”的内容边界。美国FTC也在关注:如果用户因AI情感诱导产生心理依赖,平台是否担责?中国网信办去年就明确要求,AI不得生成任何可能诱导未成年人或引发情感操纵的内容。

OpenAI的应对方式很“硅谷”:不封堵,但加锁。他们内部测试了三道过滤机制:语义识别、上下文判断、用户行为追踪。比如,如果一个用户连续三次请求“性暗示内容”,系统会弹出提示:“你最近频繁询问亲密话题,是否需要心理支持资源?”

但这招能管多久?没人知道。有人已经用Python脚本尝试绕过验证,有人在暗网讨论“如何训练一个不被监管的AI伴侣”。技术跑得比法律快,是常态。

你真的需要这个功能吗?

说实话,这功能上线后,90%的人可能一辈子都不会点开。但剩下10%的人,会把它当成深夜里唯一不嫌你烦的耳朵。

我们总说AI不该有感情,可人类自己,早就把感情投射在了机器上。从电子宠物到语音助手,从虚拟主播到AI写诗,我们不是在依赖技术,是在填补孤独。

OpenAI这次不是在“堕落”,是在妥协——向人性的复杂妥协,向成年人的私密需求妥协。

如果你觉得这很危险,那也许你该问的不是“AI该不该说黄段子”,而是:

“为什么我们越来越需要一个不会离开、不会评判、能听懂沉默的AI,来代替一个活生生的人?”