“书生 Intern-S1-Pro” 正式开源:万亿参数,为科学而生
2月4日,上海人工智能实验室正式发布“书生 Intern-S1-Pro”——全球开源规模最大的科学多模态模型,参数总量突破1万亿。这不是又一个“参数竞赛”的产物,而是一次真正面向科研场景的系统性突破。它不追求炫技,而是想解决科研人员在真实工作中遇到的难题:从读懂一篇复杂的论文图表,到模拟分子反应路径,再到分析天文望远镜传回的海量数据。
不是“会做题”,而是“能做研究”
很多人看到“1万亿参数”第一反应是“又一个大模型”。但“书生 Intern-S1-Pro”不同——它在国际公认的科学推理基准(如MMLU-Science、GPQA、SciBench)上,综合得分超越了GPT-4o、Claude 3 Opus等闭源模型,甚至在部分物理与化学推理题中,表现接近奥林匹克竞赛金牌得主。这不是靠死记硬背,而是真正理解了公式背后的逻辑、实验设计的意图和数据之间的因果关系。
更关键的是,它能“动手”:能根据你给的实验条件,自动生成可执行的Python分析脚本;能从一篇PDF论文里提取图、表、公式,并自动构建关联网络;还能在你输入一段实验记录后,指出潜在的误差来源或建议下一步验证方向。这些能力,不是实验室里的演示Demo,而是已经能在真实科研流程中跑起来的工具。
为什么它能“省电”又“高效”?
1万亿参数听起来很吓人,但你用它时,实际激活的只有22亿——这得益于它采用的混合专家架构(MoE),内置512个“专家模块”,每次只调用其中8个。就像一个拥有500名专家的智库,但每次只请8位最相关的来开会,既精准,又省力。
这种设计让普通显卡也能跑起来。有开发者实测,在单卡A100上,推理速度比同类模型快3倍以上,内存占用降低近60%。这意味着,哪怕你没有超算资源,也能在自己的工作站上用它处理科研数据。这不是为巨头准备的玩具,是给实验室、高校、独立研究者用的真工具。
它“懂”物理,不只是文字
“书生 Intern-S1-Pro”不是靠海量文本训练出来的“语言模型”,它在底层架构上做了两件很硬核的事:
- 傅里叶位置编码 + 时序重构器:让模型能感知“时间”和“尺度”——它能理解一个细胞分裂的毫秒级变化,也能理解星系演化的亿年轨迹,把微观和宏观的物理规律“内化”成自己的直觉。
- 高效路由机制:解决了超大模型训练时常见的“梯度爆炸”“参数漂移”问题。这意味着它的学习过程更稳定,结果更可靠,不是“今天对明天错”的随机模型。
一位中科院物理所的博士生试用后说:“我以前要花两天整理文献里的公式和实验参数,现在用它,10分钟就生成了可复现的分析框架。”
不是闭门造车,而是开放共建
上海AI实验室没有把它锁在实验室里。模型权重、训练代码、推理接口全部开源,GitHub仓库已开放下载。同时,官方同步上线了在线体验平台,无需注册,直接上传图片、论文、数据表,就能和模型对话。
更值得关注的是,他们同步开源了配套的“AGI4S”工具链——包括科学数据标注工具、实验流程管理插件、跨模态检索系统。这不是一个模型,而是一个为科学界打造的开源基础设施。
正如实验室负责人所说:“我们不想做下一个ChatGPT,我们要做的是让科学家不再被工具拖累。”
现在就能用
如果你是科研人员、研究生、科学程序员,或者只是对科学AI感兴趣,现在就可以去体验:
- 在线体验:https://intern-s1-pro.shanghai-ai-lab.org
- 开源代码:https://github.com/InternLM/Intern-S1-Pro
- 模型权重:Hugging Face(支持Transformers加载)
没有付费墙,没有API调用限制,没有“企业版”专属功能。这是一次真正属于科学社区的开源行动。