
背景图片来自/Mimicry Hu on Unsplash
OpenAI周二(9月16日)宣布,正在开发一个年龄预测系统,用于判断用户是否年满18岁,以便自动引导他们获得更合适的ChatGPT使用体验。公司还表示,将在本月底前率先推出家长控制功能,以回应美国联邦贸易委员会(FTC)对青少年使用AI聊天机器人的担忧。
这一举措源于近期多起与AI聊天机器人相关的青少年自杀事件被曝光。其中一起案例涉及一名16岁的加州少年亚当·雷恩(Adam Raine),他平时经常使用ChatGPT查询课业和兴趣内容,后来向该工具询问如何自杀,并于2024年4月结束生命。其家人随后提起诉讼,指控OpenAI在产品设计上优先考虑用户黏着度而非安全,导致悲剧发生。
OpenAI联合创始人兼首席执行官山姆·阿尔特曼(Sam Altman)本周就ChatGPT在青少年安全、自由与隐私方面的政策作出说明。他表示,平台将尽可能保护用户隐私,并通过自动化系统监控潜在的严重滥用行为。只有在涉及生命威胁、伤害他人计划或可能的大规模网络安全事件等高风险情况时,才会升级至人工审核。
在自由方面,OpenAI希望ChatGPT能在不损害他人安全与自由的前提下,最大限度地扩展成年人的表达自由。例如,模型默认禁止提供自杀方法说明,但如果成年人要求协助撰写描述自杀的虚构故事,ChatGPT仍会按指令响应。
相比之下,保护青少年的优先级高于隐私与自由。目前ChatGPT适用于13岁以上用户,公司正构建一套年龄预测系统,通过用户使用行为来估算其年龄,为未满18岁的用户提供适龄的使用体验,并在必要时要求用户提供身份证明文件进行验证。
一旦确认用户未满18岁,系统将引导其进入专属的青少年版ChatGPT。该版本不会与用户发展亲密关系或调情,预设屏蔽色情内容,即使在创意写作场景下也不会参与关于自杀的讨论。同时,当系统察觉青少年有自杀倾向时,将尝试联系其家长或执法机构。
OpenAI尚未公布年龄预测系统的具体上线时间,但确认家长控制功能将在本月内上线。家长可通过电子邮件邀请绑定青少年账号,协助设定适合青少年的行为规则;可管理关闭特定功能,如记忆功能和聊天记录;在系统检测到青少年处于严重情绪危机时接收通知;并可设置ChatGPT的使用时间段,实现定时停用。