最新消息:关注人工智能 AI赋能新媒体运营

OpenAI解散核心安全团队,前负责人转任首席未来学家

科技资讯 admin 浏览

OpenAI 再度重组安全部门,“使命协调”团队解散,前负责人转任“首席未来学家”

继去年“超级对齐”团队被解散后,OpenAI 的安全与使命架构再次迎来重大调整。据 Platformer 首先披露、TechCrunch 证实,公司已正式撤销“使命协调”(Mission Alignment)团队——这个成立仅半年、旨在确保通用人工智能(AGI)发展始终服务于人类福祉的部门,悄然退出历史舞台。

与此同时,原团队负责人、曾深度参与 GPT 系列模型安全对齐研究的知名科学家乔什·阿奇亚姆(Josh Achiam),被任命为 OpenAI 首位“首席未来学家”。这一头衔看似宏大,实则折射出公司内部对“安全”角色的重新定义:不再依赖独立监督,而是将责任分散到产品、工程与研究的各个角落。

OpenAI

从“独立监督”到“嵌入式安全”:OpenAI 的战略转向

“使命协调”团队成立于2024年9月,由阿奇亚姆牵头,成员约6至7人,核心任务是评估 OpenAI 的技术路径是否真正符合“让AGI造福全人类”的原始使命。他们曾参与制定内部伦理审查流程,协调与外部专家的对话,并尝试为产品团队提供“使命导向”的决策框架。

但如今,公司官方回应称,这只是“例行重组”,团队成员已分流至工程、产品和研究等部门,继续参与相关工作。外界观察者指出,这并非简单的人员调动,而是一次系统性战略收缩——OpenAI 正在放弃“安全先行”的独立堡垒模式,转而推行“安全嵌入”:让每个工程师、每个产品经理都对AI的长期影响负责。

这一转变,与公司近年来加速产品发布、争夺市场主导权的节奏高度一致。GPT-4o、Sora、Operator 等项目接连上线,背后是越来越强的商业压力。当“速度”成为关键词,独立的安全团队往往被视为“刹车系统”。如今,这个系统被拆解,责任被分摊,风险也随之转移。

首席未来学家:一个没有实权的“预言家”?

阿奇亚姆的新头衔“首席未来学家”引发热议。他本人在个人博客中表示,新角色将聚焦于“长期趋势研究”,并与物理学家杰森·普鲁特(Jason Pruet)合作,探索 AGI 如何重塑能源、教育、劳动力等社会结构。

但值得注意的是,他不再拥有任何管理权或决策否决权。他的工作不再直接干预产品开发,而是“支持”使命的理解与传播。换句话说,他不再负责“阻止错误”,而是负责“解释为什么错误可能不是错误”。

他在博文中强调:“我们不能只在技术层面谈安全,必须让更多人理解,AI 不是工具,而是环境。”这番话听起来理想主义,但在公司内部,他已失去过去那种能叫停项目的权力。一位知情人士透露:“他现在更像是个顾问,而不是守门人。”

一年内两次拆解安全部门,公众信任在流失

这已不是 OpenAI 第一次“动刀”安全体系。2024年初,由联合创始人 Ilya Sutskever 领导的“超级对齐”团队,在多名核心成员离职后宣布解散。该团队曾是业内唯一专注于“超人类AI控制”问题的专职团队,其解散曾引发学术界震动。

如今,“使命协调”团队的消失,让外界对 OpenAI 的承诺产生更深疑虑:当一个公司连续两次解散专门负责“长期安全”的团队,它到底是在优化结构,还是在回避责任?

就在上个月,美国国会听证会上,多位议员质问 OpenAI 高管:“你们口口声声说‘安全第一’,可你们的行动却在加速推进。”一位前员工匿名向媒体表示:“我们曾经相信,OpenAI 是唯一一个愿意为AI的未来多花点时间的公司。现在,我们怀疑自己是不是被利用了。”

与此同时,竞争对手如 Anthropic 和 Google DeepMind 仍在维持独立的“AI安全”团队,并公开发布对齐研究进展。OpenAI 的选择,正使其在公众认知中逐渐从“道德标杆”变成“效率优先的科技巨头”。

未来已来,但谁在为它掌舵?

OpenAI 的重组,不是孤立事件,而是整个行业缩影:当 AI 从实验室走向大众,安全与商业的张力再也无法隐藏。人们不再满足于“我们很谨慎”的承诺,而是追问:谁在真正负责?当系统出错,谁该被问责?

阿奇亚姆的新岗位,或许象征着一种无奈的妥协——把“使命”从制度中抽离,寄托于一个人的信念。但信念,无法替代机制。当一个公司的未来,依赖于一位“首席未来学家”的个人理想,而不是一套可执行、可审计、可制衡的流程时,我们真正该担心的,或许不是AI是否会失控,而是我们是否还愿意相信,有人在认真地为它设置护栏。