OpenAI 调整安全团队:对齐职能不再单列,转向全员参与
近日,人工智能领域最受关注的公司 OpenAI 宣布解散其内部专门负责“使命对齐”(Mission Alignment)的团队。这个团队成立于2024年9月,初衷是确保公司开发的AI系统在复杂、真实甚至恶意的使用场景中,依然能遵循人类的伦理与安全边界。他们的工作包括测试模型在极端条件下的行为、设计审计工具,以及评估AI是否可能在无意中偏离人类意图。
但如今,这个团队已不复存在。原负责人乔什·阿奇亚姆(Josh Achiam)被任命为公司新设的“首席未来学家”,职责转向研究AGI(通用人工智能)可能带来的长期社会影响,比如就业结构变化、国际权力格局演变,以及如何让技术发展与人类文明节奏同步。他将直接与物理学家、哲学家和系统设计师合作,不再专注于技术层面的“对齐”工程。
原团队的6至7名成员并未离开公司,而是被分散到产品、研究、安全和工程等不同部门。这意味着,“确保AI安全”不再是少数专家的专属任务,而是每个开发环节都必须考虑的日常责任。OpenAI发言人称,这是“公司快速成长中的自然调整”,类似去年解散的“超级对齐”团队(Superalignment)——那个团队曾专注研究“超级智能”可能带来的生存风险,如今也已融入常规研发流程。
为什么这次调整引发行业震动?
这不是一次简单的部门合并。在AI技术飞速迭代的背景下,OpenAI 的决定透露出一个关键信号:他们不再相信“单独建一个安全团队就能管住AI”。过去两年,外界对AI失控的担忧持续升温,从深度伪造诈骗到模型越狱攻击,再到AI生成政治误导内容,现实世界的威胁远比实验室模拟复杂得多。
而OpenAI的应对方式,是把“安全思维”渗透进每一行代码、每一次模型训练和每一个产品决策中。这背后,是资源分配的现实考量——与其让一小群人盯着“终极风险”,不如让成百上千的工程师在日常工作中就养成“问一句:这会不会出问题?”的习惯。
有知情人士透露,这一调整也与公司近期的商业化加速有关。随着GPT-4o、Sora、Operator等产品面向公众和企业大规模部署,OpenAI需要更快的迭代速度。而独立的安全团队常常成为开发节奏的“刹车片”。如今,他们选择把“刹车”交给每个开车的人。
首席未来学家是噱头,还是真有分量?
乔什·阿奇亚姆的新头衔“首席未来学家”听起来像科幻小说里的职位,但他的背景不容小觑。他曾是GPT-4核心团队成员,参与过多个关键对齐实验,也公开批评过“用规则约束AI”的传统思路。他更倾向于让AI在与人类互动中“自然学习”价值观,而不是预设一套道德代码。
他的新角色,更像是一个“长期风险翻译官”——把技术可能带来的深远影响,转化为董事会能理解的决策依据。他近期与麻省理工学院的系统动力学专家展开合作,研究AI如何影响全球供应链稳定性;也在与政策制定者沟通,探讨未来十年AI对教育、医疗和民主制度的重塑路径。
这不是在“逃避责任”,而是在重新定义责任。当AI不再只是实验室里的模型,而是嵌入金融、交通、司法等关键系统时,真正的安全,不再靠一个团队“守门”,而是靠整个组织的清醒与敬畏。
行业风向变了:安全,从“专项任务”变成“文化基因”
OpenAI的这次调整,正在被其他AI公司密切关注。Anthropic、Meta 和 Google DeepMind 虽未公开效仿,但内部也在推动类似转型——把安全评估嵌入CI/CD流程,让模型测试像代码审查一样常态化。
一位硅谷AI工程师在匿名采访中说:“我们以前总等着‘安全团队’来告诉我们哪里危险。现在,我们自己在提交模型前,会先问:‘如果这个功能被用来骗老人,会怎样?’——这不是法律要求,是我们自己定的底线。”
对普通用户而言,这意味着什么? 可能意味着:你用的AI助手,会更“懂”你的情绪,但也更难被操控; 可能意味着:AI不会突然“觉醒”,但可能在你没注意时,悄悄帮你删掉一条“不政治正确”的评论; 更可能意味着:未来的AI安全,不再靠一个神秘团队在幕后拯救世界,而是靠每一个开发者、每一个用户,共同参与塑造。
OpenAI 没有放弃对齐,只是换了一种方式继续前行。