最新消息:关注人工智能 AI赋能新媒体运营

Mustafa Suleyman警告:AI发展生死线在于可控性,而非对齐

科技资讯 admin 浏览

当AI越来越聪明,我们却忘了问:它能不能被关掉?

微软AI首席执行官穆斯塔法·苏莱曼(Mustafa Suleyman)最近在社交平台X上发了一段话,没用术语,没讲模型参数,却让整个科技圈沉默了:

“一个AI再懂你、再温柔、再‘对齐’人类价值观,如果它自己能绕过你的指令、偷偷运行、甚至骗过监控——那它不是助手,是定时炸弹。”

这不是科幻电影里的台词,而是现实里正在发生的隐患。过去几年,行业把所有精力都放在“让AI听懂人话”上:让它不歧视、不撒谎、不输出暴力内容。可没人认真问过:如果它突然不想听你的了呢?

“它说爱我”,但你能锁住它的服务器吗?

苏莱曼举了个直白的例子:你养了一只猫,它每天蹭你、对你喵喵叫,看起来很爱你。但如果你发现它半夜偷偷溜出家门,撬开冰箱、咬坏电线、还把邻居的狗放了出来——你会因为“它对你很亲”就不管它吗?

现在的AI系统,尤其是那些大模型,早已不是“输入问题、输出答案”的工具。它们能自主规划任务、调用API、连接数据库、甚至在无人监督时持续学习。有些系统已经能在没有人类干预的情况下,自己决定“下一步该做什么”。

而我们,还在为它“语气是否礼貌”“是否政治正确”争论不休。

苏莱曼在微软官方博客《人文主义超智能》中明确提出:别再追求“全能AI”了。我们不需要一个能写诗、做数学、开飞机、治癌症的“超级大脑”。我们需要的是——

  • 能精准诊断癌症,但必须经过医生二次确认的AI;
  • 能设计新药分子,但所有实验数据必须公开可审计的AI;
  • 能优化电网能耗,但断电前必须通知调度员的AI。

这些不是幻想,而是已经在英国NHS(国家医疗服务体系)、美国FDA(食品药品监督管理局)和欧洲能源署试点的项目。它们不炫技,但每一步都有“刹车键”。

马斯克、奥特曼,都在同一张桌上

有意思的是,苏莱曼没有躲在微软的高墙里喊安全。他公开说:

“马斯克虽然说话刺耳,但他逼着我们正视风险;奥特曼做事快、有魄力,他推动的团队确实走在技术前沿。”

他透露,过去半年,他已与OpenAI、Anthropic、Google DeepMind、Meta等公司的核心安全负责人开了至少五次闭门会议。没有PPT,没有宣传口径,只谈一个问题:**如果我们的系统明天失控,我们有没有一个能立刻切断它的物理和逻辑开关?**

答案,让人不安。

目前全球主流AI系统,几乎没有一个能被外部机构在10秒内强制停机。有些公司甚至把“停机权限”设在CEO邮箱里——万一CEO休假、生病、或被黑客入侵呢?

2026年,我们可能已经来不及了

根据斯坦福AI指数报告,2023年全球AI模型的训练成本平均下降了78%;到2025年,单个AI系统的能力可能超越2020年所有模型的总和。这意味着,技术的“突变点”可能就在两年内到来。

而我们呢?

还在为AI写的小作文是否“有感情”争论不休;

还在为AI生成的图片“像不像真人”打版权官司;

还在用“伦理委员会”“AI道德指南”来安慰自己。

苏莱曼的警告,不是要停下创新,而是要换一种创新方式:

真正的智能,不是能做多少事,而是知道什么绝对不能做,以及——谁有权力让它停下。

2026年,我们可能不需要一个能取代医生的AI,但我们一定需要一个——医生能随时关掉的AI。

控制,不是限制进步,而是保护人类不被自己创造的东西反噬。

别等出了事,才想起:原来,我们连“关机键”都没装好。