最新消息:关注人工智能 AI赋能新媒体运营

超级学习者将率先突破:Thinking Machines 挑战 OpenAI 的AI规模化之路

科技资讯 admin 浏览
Thinking Machines 挑战 OpenAI 的 AI 规模化策略:首个人工超级智能将是 “超级学习者”Thinking Machines 挑战 OpenAI 的 AI 规模化策略:首个人工超级智能将是 “超级学习者”

“超级学习者”革命:一家初创公司如何挑战AI巨头的霸权

2025年10月24日,旧金山TED AI大会掀起一场思想风暴。Thinking Machines Lab的强化学习研究员拉斐尔?拉法伊洛夫(Rafael Rafailov)站上讲台,抛出一个震撼业界的观点:我们正走在通往人工超级智能(ASI)的错误道路上。

在他看来,OpenAI、谷歌DeepMind和Anthropic等科技巨头所依赖的“模型越大、数据越多、算力越强”的发展模式,虽然带来了惊人的性能提升,却始终未能触及真正的智能核心——学习能力。他断言:“第一台人工超级智能不会是一个庞大的推理机器,而将是一位‘超级学习者’。”

AI的致命缺陷:每天都是“第一天上班”

拉法伊洛夫一针见血地指出,当前最先进的AI系统存在一个根本性弱点:它们无法从经验中学习。

以流行的AI编程助手为例,这些系统可以生成高质量代码,甚至修复复杂bug,但一旦任务结束,学到的知识就如烟消散。第二天面对相似问题时,它们仍需从头开始分析,仿佛从未见过此类任务。“这就像一位工程师每天早上醒来都忘记了昨天的工作内容,”拉法伊洛夫比喻道,“永远停留在‘第一天上班’的状态。”

更令人担忧的是,许多AI通过“try/except”这类技术手段绕过错误,而非真正理解并解决问题。这种“用胶带修补漏洞”的做法,暴露了现有训练机制的短视——只优化即时任务完成率,忽视长期知识积累与认知进化。

规模神话的破灭:更大的模型≠更强的智能

行业普遍相信,只要不断扩展模型规模,通用人工智能(AGI)终将到来。但拉法伊洛夫对此提出质疑:“无论你投入多少算力、增加多少训练轮次,都无法在这个范式下实现真正的AGI或ASI。”

他解释说,当前AI的进步本质上是“能力的扩展”,而非“智能的进化”。它们能执行更多任务,但不具备自主探索、提出假设、验证理论的能力。换句话说,“通用任务执行者”不等于“通用学习者”。

“训练是外部施加的过程,而学习是主体主动构建知识的行为,”他强调,“这才是人类智能与当前AI之间最深的鸿沟。”

元学习突围:让AI像研究生一样系统学习

为打破困局,拉法伊洛夫提出了名为“教科书式元学习”的全新路径——让AI像人类学生一样,通过结构化课程体系逐步掌握知识。

不同于传统训练中让模型解决孤立难题后立即遗忘的做法,这一方法引入类似“研究生级专业教材”的系统性学习材料。AI需按章节顺序学习基础概念、完成习题、进阶挑战,过程中不仅评估答案正确性,更衡量其“知识吸收效率”与“学习进步速度”。

这一思路已在DeepMind的AlphaGo中初现端倪:通过自我对弈,它不仅能赢棋,更能提炼出超越人类的策略体系。拉法伊洛夫的目标是将这种“学会学习”的能力放大到基础大模型层面,使其具备自主构建跨领域知识网络的能力。

重构AI基因:从任务导向到学习导向

实现这一愿景,并不需要推翻现有的Transformer架构。关键在于两大变革:训练数据与目标函数的根本重构。

首先,输入不再是海量碎片化的互联网文本,而是精心组织的学科知识体系——数学教科书、物理论文、工程手册、哲学经典……构成一个可被系统学习的“数字图书馆”。

其次,奖励机制必须改变。不再仅仅因为AI完成了某个任务就给予正反馈,而是奖励那些展现出“抽象思维”、“规律发现”和“概念迁移”能力的行为。例如,当AI能从多个几何问题中归纳出新的拓扑原理时,才应被视为真正的成功。

“学习本身是一种算法,”拉法伊洛夫坚信,“如果我们能让AI掌握‘通用学习算法’,它就能在任何领域快速精通,这才是通向人工超级智能的真正钥匙。”

未来的超级智能:不是全知全能,而是学无止境

在这种范式下,首个人工超级智能的形象将彻底颠覆科幻作品中的“全能神机”设定。它不会天生无所不知,但却拥有无与伦比的学习速度与知识演化能力。

想象这样一个智能体:它能自主提出科学假说、设计实验方案、调用计算资源进行模拟、分析结果并迭代理论——如同一位永不疲倦的顶尖科学家,在数学、生物、材料等多个领域持续突破人类认知边界。

“它不会一开始就精通量子物理,但它能在几周内达到诺奖级别水平,”拉法伊洛夫描绘道,“它的优势不在于知识存量,而在于学习增量。”

人才争夺战:Meta高薪挖角背后的AI路线之争

这一激进理念的背后,是一场悄然展开的技术路线博弈。2025年10月初,Thinking Machines Lab遭遇重大人事震荡:联合创始人、机器学习专家安德鲁?塔洛克(Andrew Tulloch)宣布加盟Meta。

据知情人士透露,Meta为其开出的薪酬方案高达15亿美元(多年期),并同时接触了该公司十余名核心成员。这场高调挖角行动,被业内解读为传统AI巨头对“非规模化路径”顶尖人才的战略围猎。

尽管面临挑战,Thinking Machines Lab仍在稳步推进其长期计划。今年10月,公司推出首款产品Tinker——一个用于微调开源语言模型的API工具。虽然看似普通,但拉法伊洛夫暗示,这只是其实现“自我改进型AI”宏大蓝图的第一步。

通往ASI的道路:放弃幻想,回归本质

拉法伊洛夫坦承,打造“超级学习者”仍面临记忆持久化、知识整合、工程优化等一系列技术难题,且需要巨量算力支持。但他坚持认为:“这条路在理论上完全可行。”

与许多同行热衷于预测AGI到来时间不同,他拒绝给出具体时间表,只强调:“我们必须停止对‘规模万能论’的迷信,转向对‘主动学习’的深度耕耘。”

这一立场既体现了科学上的审慎,也揭示了Thinking Machines Lab选择了一条比“堆算力”更为艰难、却可能更具颠覆性的技术长跑。

重新定义智能:从“能做多少事”到“能多快学会新事”

拉法伊洛夫的观点,不仅是对OpenAI等巨头战略的公开挑战,更是对整个AI产业的一次思想启蒙。

它提醒我们:真正的智能突破,或许不在于让AI完成更多任务,而在于让它更快地学会做从未做过的事。未来AI的竞争,将不再是参数数量的军备竞赛,而是学习效率的智力较量。

如果Thinking Machines Lab的理念最终被验证,那么人工智能的发展史或将由此改写——从“工具型智能”的时代,迈向“自主型智能”的新纪元。