别再迷信“大模型万能”了:周志华院士的科研清醒剂
过去两年,从高校实验室到企业研究院,“大模型”几乎成了科研经费申请书里的标配词。只要挂上“AI赋能”四个字,项目就容易通过;只要用上Transformer架构,论文就显得“前沿”。可当越来越多的科研人员发现,训练一个百亿参数的模型,最后只是把已知的公式重新算了一遍,人们才开始问:这真的是进步,还是在用算力掩盖思想的贫瘠?
中国科学院院士周志华,一位在机器学习领域深耕三十余年的学者,在近期一场内部研讨会上直言:“我们正陷入一种新的迷信——以为只要数据够多、模型够大,就能自动发现科学规律。”他举了个例子:有团队用大模型预测蛋白质结构,结果模型输出的构象,连基本的化学键角度都错得离谱,却因为“看起来像”,被误当作突破性成果发表。
“AI赋能”成了新包装,真正的难题被搁置了
周志华观察到,很多所谓的“AI+科学”项目,本质是把已有的算法工具套在旧问题上,换个名字就申请新课题。比如,用大模型分析天文图像,结果只是把过去用SVM或CNN就能完成的星系分类,换了个更重的框架跑了一遍,准确率没提升,训练时间却翻了十倍。
更严重的是资源错配。国内不少高校和研究所,把大笔经费投入到购买GPU集群、租用云算力,而基础算法研究、数据标注、科学仪器改造这些真正需要长期投入的环节,反而被边缘化。一位不愿具名的中科院研究员透露:“我们组去年申请了三笔AI项目,两笔都因为‘没用大模型’被否了。可我们花两年时间优化了一个小样本学习算法,能用在稀有元素光谱识别上,反而没人问。”
数据荒:科学界最大的“信息孤岛”
大模型需要数据,但科学数据不是互联网上的图片和文本。一个核磁共振谱图,可能涉及数十年的实验积累;一份地质勘探数据,背后是几十个团队跨越十年的野外采样。这些数据,要么锁在实验室的硬盘里,要么格式五花八门,连基本的元数据标准都没有。
周志华提到,国内某重点实验室曾尝试建立一个“AI辅助药物设计”公共数据库,结果17家合作单位中,只有3家愿意共享原始数据,其余都以“知识产权”“尚未发表”为由拒绝。最终,模型训练用的数据不足500组,准确率还不如传统QSAR模型。
更讽刺的是,一些机构一边抱怨“数据太少”,一边把已有的数据反复拿来训练不同模型,导致大量重复劳动。据《自然》杂志2023年的一项统计,全球约40%的AI科研论文使用了相同或高度重叠的公开数据集,而其中近六成没有进行交叉验证。
破局之道:不是造更大的模型,而是建“交叉特区”
周志华提出的解决方案,不靠喊口号,而是动真格的制度变革。
他建议,在部分高校和科研院所试点“交叉学科特区”——在这里,一个物理学家和计算机科学家合作发表的论文,可以同时被认定为“物理学成果”和“人工智能成果”;一个青年研究员,如果主导了一个解决实际科学问题的AI工具,哪怕没发顶会论文,也能评职称、拿项目。
目前,清华大学、浙江大学已开始在部分院系试行类似机制。例如,浙大医学院与计算机学院联合设立“生物医学智能”交叉博士项目,学生毕业时可选择由医学导师或计算机导师主导答辩,成果认定不再拘泥于传统学科边界。
与此同时,国家自然科学基金委也于2024年初启动“科学数据共享专项”,首批支持12个领域建立标准化数据平台,要求所有资助项目必须提交可复用、可验证的原始数据。这或许是中国科研数据生态走向开放的第一步。
真正的AI科研,是让机器学会提问,而不是替人算答案
周志华说:“我们不是反对用AI,而是反对用AI来逃避思考。”
他举了两个例子:一个是MIT团队用机器学习发现了一种新型催化剂,不是靠模型“猜”出来的,而是让AI分析了上万次失败实验的记录,找出人类忽略的温度-压力组合规律;另一个是中科院物理所的团队,让AI辅助设计实验流程,结果发现一个长期被忽略的量子相变临界点——不是因为模型多强,而是因为团队敢让AI“问问题”。
真正的突破,从来不是靠堆参数,而是靠人和机器的深度协作:人提出问题,机器辅助探索,人再判断方向。这条路,没有捷径,也不需要“万能模型”。它需要的是耐心、制度的勇气,以及对科学本质的敬畏。
我们不需要更多的“AI神话”,我们需要的是更多愿意在实验室里,一毫米一毫米地磨出真实进步的人。