中国AI跑得快,但能想得远吗?
最近,DeepMind CEO德米斯·哈萨比斯在CNBC的一次专访中说了句让不少人愣住的话:“中国的大模型,和美国的差距,现在可能就几个月。”这话听着不像一个西方AI巨头的高管该说的——毕竟,过去几年,西方媒体总爱说中国“落后一代”“只能模仿”。可哈萨比斯没这么讲。他点名了DeepSeek、阿里巴巴、月之暗面这些名字,说它们的模型“真的挺厉害”,训练规模、推理效率,已经摸到了世界最前沿的边。
这不是客套。你打开国内主流AI平台,从文心一言到通义千问,从讯飞星火到月之暗面的Kimi,回答问题的速度、长文本处理能力、多轮对话的连贯性,确实不输GPT-4o。在电商客服、政务问答、金融报告生成这些实际场景里,中国的AI落地速度甚至更快——你今天提交一份合同,明天就能有AI帮你改出三版优化方案;在抖音、淘宝、微信里,AI早就不是“新玩意”,而是日常操作的一部分。
但哈萨比斯话锋一转,说了一段更值得听的话:“你们能跑得快,是因为你们知道怎么把别人的东西做得更好。但真正改变游戏规则的东西,还没出来。”
什么意思?Transformer架构是2017年谷歌提出的,现在全球都在用它做基础。中国公司把这玩意儿优化得又快又稳,成本还低。可谁也没能跳出这个框架,去发明一个“后Transformer”的新东西。没人提出像“注意力机制”那样颠覆性的新思路。在AI for Science、具身智能、神经符号系统这些真正烧脑的前沿领域,论文和突破,还是美国的MIT、斯坦福、OpenAI、DeepMind在主导。
哈萨比斯不把这归咎于芯片禁令——虽然H100买不到确实头疼,但他更看重的是“文化”。他说:“算力可以买,可以攒,但能容忍一个团队花三年时间,做一件可能失败的事,这种环境,太难复制了。”
这话戳中了痛点。我们擅长“快速迭代”——你发一个模型,我七天就能复现,十天就能优化,一个月就能上线。但没人敢说:“我想试试一个没人信的理论,哪怕五年都没结果。”高校里,论文数量压倒一切;企业里,KPI盯着月活和营收。谁愿意为一个“可能没用”的想法,赌上整个团队的预算和前途?
反观美国,哪怕在经济下行时,Meta还在投“LLaMA”开源项目,Google还在养“Gemini”的长期研究,OpenAI的团队里,有人专攻“AI如何理解因果关系”这种听起来像哲学的问题。这些事,短期内看不到收益,但十年后,可能就是下一个AI革命的起点。
中国AI现在像一支训练有素的短跑队,起步快、冲刺猛、终点线前从不掉链子。可如果比赛规则变了,赛道延长到马拉松,我们还能不能保持领先?
哈萨比斯的评价,不是夸奖,也不是贬低,而是一面镜子。它照出了中国AI的强项:工程能力、落地效率、市场响应。也照出了短板:敢不敢做没人敢想的事?有没有人愿意为“无用之用”买单?有没有文化,允许一个科学家在实验室里,安静地发呆五年,只为等一个灵光一闪?
算力决定你能跑多快,但思想决定你能走多远。
2024年,全球AI竞赛已经不是比谁的模型参数更大,而是比谁的脑子更敢想。中国不缺聪明人,缺的是让聪明人敢想的空间。