最新消息:关注人工智能 AI赋能新媒体运营

前OpenAI专家警告:AI无法从错误中学习,AGI遭遇核心瓶颈

科技资讯 admin 浏览

AI不会“长记性”?前OpenAI核心研究员离职,只为解决一个简单却致命的问题

你有没有试过问AI一个问题,它答错了,然后你再问一次同样的问题——它还是错的?不是偶尔,是每次都一样。不是因为它“记性差”,而是它根本“没在学”。

这不是段子。前OpenAI推理模型o1和o3的核心研发人员Jerry Tworek,最近辞职了。不是去创业,也不是跳槽到大厂,而是单枪匹马,一头扎进一个被行业回避已久的问题:为什么现在的AI,永远不会从错误里长记性?

Tworek参与打造的模型,能写论文、解数学题、甚至模拟哲学辩论。但一旦遇到训练数据里没出现过的情况——比如一个稍微改了措辞的逻辑题,或一个现实世界中模糊的指令——系统立刻“卡住”,像一台被堵住的自动售货机,反复吐出同样的错误答案,从不调整。

“我们以为在训练AI,其实只是在教它背答案。”Tworek在一次内部分享中说,“人类犯错后会反思、会怀疑、会换方法。AI呢?它连‘我刚才错了’这个意识都没有。”

不是“算得慢”,是“学不会”

现在主流AI的训练方式,本质上是“海量数据+统计拟合”。它不理解因果,不建立信念,也不形成记忆。你给它100万条“猫的照片”,它学会的是像素组合的规律,而不是“猫是什么”。一旦输入变了——比如一只戴眼镜的猫,或一张手绘的猫——它可能就懵了。

这就像一个学生,背了十年的题库,但老师一换题,他就彻底哑火。更可怕的是,他还不知道自己错了。你告诉他“你答错了”,他下次还是照着原来的方式答——因为你没教他“怎么改”,只教了“怎么复制”。

Tworek说,这种系统在实验室里看起来很聪明,但在真实世界里,一碰就碎。自动驾驶遇到一个没见过的路牌,AI可能直接停车;医疗助手误判症状,它不会回头查资料、不会问医生、不会调整判断逻辑——它只会重复之前的错误。

真正的智能,是“跌倒了还能爬起来”

人类的智能,不是靠记忆堆出来的,而是靠试错、反思、修正。孩子摔了十次才学会走路,程序员改了三百次代码才跑通程序,科学家失败上千次才找到正确公式——这些过程,不是bug,是智能的核心。

Tworek现在在做的,是想让AI拥有“自我修正”的能力。不是靠人工标注“这是错的”,而是让模型自己能识别:这个结果不合理,这个路径走不通,我得换思路。

他不是在做“更强大的模型”,而是在尝试重建“学习的底层机制”。目前团队还在早期阶段,但已有一些实验性原型:模型在推理失败后,能生成“内部质疑”——比如“我为什么觉得这个答案是对的?”、“有没有其他解释?”——并尝试重新搜索逻辑路径,而不是直接放弃。

这听起来像常识,但却是目前所有主流AI系统最缺的东西。

为什么这事儿重要?因为AI已经走进现实了

别以为这只是实验室里的技术问题。AI已经进入教育、医疗、法律、金融——这些领域,一个“不会改错”的系统,可能带来真实伤害。

比如,一个AI律师助手,连续三次给出错误的法律条款引用,却始终不修正,法官或客户怎么知道它在胡说?再比如,一个AI家教,一直教孩子错误的数学解法,家长以为“AI不会错”,孩子却在错误的路径上越走越远。

我们不需要更炫的AI。我们需要更“靠谱”的AI。

Tworek的离开,不是对OpenAI的失望,而是对整个行业方向的质疑:我们是不是把“看起来聪明”当成了“真正智能”?

如果AI永远学不会从失败中站起来,那它再强,也只是个高级复读机。

而真正的智能,从来不是完美无缺,而是——跌倒了,还能自己爬起来。