Optics GPT:让光学研发不再“靠经验猜”
2026年1月26日,上海交通大学正式发布全球首个面向光学领域的垂直大模型——Optics GPT。这不是又一次概念炒作,而是一群长期在实验室、洁净间和仿真平台中摸爬滚打的科研团队,花了三年时间,把中国光学界几十年积累的工程经验,一点一点“喂”进模型的结果。
过去,一个光学工程师设计一套激光系统,要翻几十本专业书,查上百篇论文,反复调试参数,一个透镜曲率改错0.1微米,整套系统可能就报废。而今天,他们可以直接问Optics GPT:“我要在800nm波段实现单模传输,用哪种材料组合最稳定?热变形影响怎么补偿?”——模型不仅给出答案,还会附上理论依据、参考文献和常见陷阱提醒。

不是“通才”,是能进实验室的“老工程师”
ChatGPT能讲光的波粒二象性,但不知道Zemax里怎么设置非序列路径;通义千问能背出非线性薛定谔方程,但算不出光纤耦合效率的实测偏差。Optics GPT不一样——它的训练数据来自中科院上海光机所、中国电科第11所、华为光模块研发团队等一线单位的真实项目记录,包括失败的仿真、被拒的论文审稿意见、工程师手写的调试笔记。
它不是“背答案”,而是学会了“像人一样思考”。比如,当用户问“为什么这个镀膜方案在高温下容易脱膜”,它不会只答“热膨胀系数不匹配”,而是会说:“你用的是Al2O3/TiO2多层膜,但没考虑基底的热应力累积。建议改用SiO2缓冲层,参考2023年长光所的《光学精密工程》第5期,他们用同样结构在85℃下连续运行了2000小时没失效。”
六个真实场景,它比通用模型强在哪?
为了验证效果,交大团队联合国内七家光学企业,搭建了涵盖六大实际场景的评测体系:
- 基础理论:光量子纠缠态的相位匹配计算,误差控制在0.3%以内
- 前沿技术:光子晶体波导的拓扑边界态模拟,准确率超92%
- 工程应用:自由曲面镜头的公差分配优化,节省平均37%的试制成本
- 系统诊断:从激光器输出光斑畸变图,自动定位是准直镜偏心还是晶体应力
- 仿真辅助:输入需求参数,自动生成可行的FDTD仿真结构,减少建模时间80%
- 教学辅助:为本科生生成带注释的光学设计实验报告模板,被复旦、浙大纳入实验课参考
在所有测试中,Optics GPT在专业任务上的准确率平均高出GPT-4o、Claude 3等主流模型28%以上,尤其在涉及材料参数、工艺限制、实验误差等“隐性知识”上,表现远超通用模型。
小模型,大用处:不靠算力,靠经验
很多人以为AI模型越大越好,但Optics GPT只用了80亿参数——不到GPT-3的1/10,却能在普通工作站、甚至工业平板上流畅运行。这意味着:
- 中小光学企业不用买昂贵的GPU集群,也能用上顶尖的仿真辅助工具
- 产线工程师在车间里用手机就能查光学设计规范
- 高校实验室不再依赖国外商业软件,所有代码、数据、训练流程完全自主可控
更关键的是,它不“瞎编”。模型训练全程使用脱敏后的国产科研数据,不接入公网,不调用海外API,所有输出可追溯、可验证。一位参与测试的某光通信企业研发主管说:“以前用国外工具,问个材料参数,它给你一堆英文文献,但不确定是不是真适合我们的工艺。现在问Optics GPT,它直接告诉你‘这个参数在我们2022年做的100次实验里,只有3次成功,建议别用’。”
正在改变的,不只是工具
在中科院上海光机所,一位年轻研究员告诉我:“以前我花三个月调一个激光腔,现在三天就能出三个可行方案,剩下的时间,我用来做真正创新的事——比如设计一种新结构,而不是重复试错。”
Optics GPT不是要取代工程师,而是让那些埋头做重复计算、查资料、调参数的人,能腾出手来思考更重要的问题:怎么让激光器更稳定?怎么让量子通信距离再突破100公里?怎么让国产光学元件不再被“卡脖子”?
它不是一个炫技的AI产品,而是一把被磨了三年的工具——锋利、可靠、只对真正懂行的人说话。