最新消息:关注人工智能 AI赋能新媒体运营

Sam Altman豪赌10亿美元:打造AI“世界实验室”

科技资讯 admin 浏览

Sam Altman 押注“会看世界”的AI公司,李飞飞联手打造新风口

OpenAI 首席执行官 Sam Altman 最近悄悄投了一笔钱,没发新闻稿,没开发布会,但硅谷的圈内人已经炸了——他出手支持了一家叫 World Labs 的初创公司,估值一夜之间冲上10亿美元。而这家公司的创始人,是被无数AI从业者尊称为“AI教母”的李飞飞。

李飞飞是谁?她是斯坦福大学教授,ImageNet 的缔造者,正是这个数据集,让深度学习在视觉领域彻底爆发。她曾掌管谷歌云AI,亲手推动了AI从实验室走向工业应用。如今,她离开大厂,带着一群顶尖工程师和研究员,一头扎进一个更难、更慢、但可能更重要的方向:让AI“看见”并理解三维世界。

我们现在的AI,能写诗、能聊天、能写代码,但你让它在房间里绕开椅子、判断一个杯子会不会倒、或者认出一个从没见过的玩具——它就傻了。World Labs 想做的,就是给AI装上“眼睛+大脑+身体”的协同系统。不是靠文字描述,而是让它像人一样,通过摄像头、传感器、物理模拟,真正理解空间、重力、物体关系。这不叫“增强语言模型”,这叫“重建AI的感知基础”。

Altman 为什么愿意投?他不是在赌一个产品,而是在赌AI的下一站。OpenAI 的GPT系列已经把语言做到了极致,但光有语言,AI永远是“纸上谈兵”。如果一个AI能看懂你家客厅的布局,知道你的猫喜欢蹲在沙发角,能预测你伸手拿杯子的轨迹——那它才可能从“助手”变成“伙伴”。这,才是通向真正通用人工智能(AGI)的另一条路。

外界说这太烧钱、太慢、变现难。确实,训练一个能理解物理世界的AI模型,需要的不只是数据,还有高精度的3D仿真环境、机器人实验数据、甚至真实世界的动作捕捉。但 Altman 早就不是第一次“逆流而上”了。他早年投过核聚变公司 Helion,也押注过生物计算,没人看好,他却坚持。这一次,他不是以OpenAI CEO的身份入场,而是以个人投资者的身份,跟李飞飞站在一起——这意味着,他愿意为这个方向承担长期风险。

目前,World Labs 已经吸引了一批来自谷歌、Meta、NVIDIA 的核心工程师,团队里有好几位曾参与过自动驾驶和机器人视觉的项目。有知情人士透露,他们正在开发一个开源的“三维场景理解”基准测试平台,未来可能像ImageNet一样,成为行业新标准。而他们的第一个落地场景,不是聊天机器人,而是家庭机器人、AR导航、甚至电影级虚拟场景生成。

这不是下一个ChatGPT,但它可能是下一个改变AI与现实世界互动方式的起点。

为什么这次合作,比你想象的更重要

Altman 和李飞飞,一个是AI商业化最成功的推手,一个是AI基础研究的奠基人。他们以前各自为战,现在走到一起,说明行业正在发生深层转向:

  • 从“语言智能”转向“感知+行动智能”
  • 从“云端大模型”转向“具身智能”(Embodied AI)
  • 从“文本生成”转向“物理世界交互”

这背后,是资本和人才的集体迁移。据《The Information》报道,2024年全球在具身智能领域的融资额已超过50亿美元,是2022年的三倍。英伟达、微软、亚马逊都在悄悄布局机器人感知系统,而 World Labs 是目前唯一由李飞飞亲自带队、且获得 Altman 个人背书的团队。

有人问:这会不会又是泡沫?也许。但别忘了,2012年,当李飞飞发布ImageNet时,也没人相信图片识别能改变世界。现在,你手机里的相册自动识别人脸,背后全是那套技术。

这一次,他们想让AI学会的,不是“写一段话”,而是“看一眼就知道:这个杯子,你一碰,它就会掉。”

普通人能感受到什么?

你可能几年后会用上这样的功能:

  • 家里的机器人,能认出你放在沙发上的钥匙,不用你喊“帮我找钥匙”,它自己就去拿了。
  • AR眼镜帮你导航时,不会只画一条线,而是告诉你“左边那扇门是厨房,右边是卧室,中间是过道,小心脚边的地毯”。
  • 你拍一张家里乱糟糟的房间照片,AI能自动生成整理方案,甚至模拟出整理后的效果。

这些不是科幻。World Labs 的团队里,有人曾参与过谷歌Project Starline,有人做过MIT的机器人抓取实验。他们不画饼,只做东西。

Altman 没有说“这会改变世界”。他只是投了钱,然后继续去开他的董事会、写他的推文、研究他的核聚变。但这一次,他选择站在李飞飞这边——这意味着,AI的下一章,可能不再只在屏幕上发生。

真正的智能,终将走出屏幕,走进你的生活。