元戎启行正式押注大模型,北京车展亮出自动驾驶新底牌
在北京车展的聚光灯下,前DeepSeek多模态技术核心研究员阮翀以元戎启行首席科学家的身份首次公开亮相。这不是一次普通的高管变动——它标志着这家曾以感知模块见长的自动驾驶公司,正彻底转向一条更激进、也更接近人类驾驶逻辑的技术路径:用一个统一的大模型,取代过去几十个“各自为战”的小模型。
元戎启行CEO周光在现场直言:“2026年初,我们看到了真正的拐点。”他没有回避行业痛点——过去那种“调一个路口的识别,反而让高速变道出错”的跷跷板效应,让很多团队陷入无休止的修补循环。“我们试过上百种组合,但永远解决不了‘全场景安全’这个根本问题。”周光说,“大模型不是升级,是重写规则。”
阮翀透露,新架构已落地在公司最新测试车队中。系统不再依赖“感知-规划-控制”层层拆解的流水线,而是构建了一个能同时理解道路环境、预测其他车辆意图、甚至判断行人心理状态的统一基座。这个基座被拆成三个协同工作的子模块:一个负责“驾驶决策”,一个负责“环境分析”,还有一个专门做“错误复盘”——也就是实时记录哪些判断出了问题,为什么出错,下次怎么改。这不是简单的功能叠加,而是在模仿人类司机的“经验积累”过程。
技术变革带来的效率飞跃,让工程师们自己都感到惊讶。过去,优化一个夜间雨天的识别模型,要跑上百小时的仿真和路测数据,耗时近一周。现在,同样的任务,10小时就能完成一轮迭代。这意味着,过去一年只能测试50种新策略,现在能测试500种。团队内部流传着一句话:“我们不是在调参数,是在教AI开车。”
为什么这次不一样?行业正在悄悄换赛道
这不是元戎启行一家的孤注一掷。2024年下半年,Waymo、Cruise、小鹏、华为等头部玩家,陆续在专利和招聘中释放出相似信号:大模型正从“可选项”变成“必选项”。尤其在多模态融合(视觉+激光雷达+雷达+地图+语义)上,大模型展现出远超传统算法的泛化能力——它能认出一个没标线的乡村路口,也能处理突然冲出的电动车,甚至能根据路边的共享单车摆放,预判行人可能的动线。
更关键的是,成本结构变了。过去,每个场景都要单独训练模型、部署算力、维护代码,人力和服务器开销像滚雪球。现在,一个基座模型通吃全场景,训练一次,全车通用。据业内估算,元戎启行这套新架构,已将单车AI模块的年运维成本降低近60%。
有知情人士透露,元戎启行已在深圳、杭州等地的无人出租车队中,部署了基于新架构的V3系统。首批100台车累计行驶超80万公里,事故率同比下降73%,系统“不确定场景”主动接管率从每百公里1.2次降至0.3次——这意味着,AI更“稳”了,人类接管的次数少了,乘客的体验也更自然。
接下来,是量产还是等待?
没人否认大模型的潜力,但质疑也真实存在:算力够不够?部署成本高不高?能不能通过车规认证?
周光没有回避:“我们不是在等技术完美,而是在等它足够可靠。”他透露,元戎启行已与多家主机厂达成联合开发意向,2025年将率先在高端车型上实现L4级自动驾驶的量产落地,首批车型将搭载自研的车端大模型推理芯片——不是用英伟达的方案,而是自研的低功耗专用架构,专为车载环境优化。
阮翀在演讲结尾说了一句话,被现场不少人记了下来:“我们不再追求‘让AI像人’,而是让车自己学会‘像人一样思考’。”
北京车展的喧嚣终将散去,但这场技术底层的重构,才刚刚开始。