美国交通部计划用AI起草交通法规,引发安全与伦理争议
据 ProPublica 深度调查,美国交通部(DoT)正秘密推进一项极具争议的计划:使用谷歌旗下人工智能模型 Gemini,自动生成涉及航空、汽车、铁路和海事安全的联邦法规草案。这一举措的目标,是将原本耗时数月甚至数年的立法流程压缩至“几秒钟”完成,实现所谓“闪电式”监管发布。
在内部会议中,DoT 律师 Daniel Cohen 向团队演示了 Gemini 如何在数秒内生成一份结构完整、语言规范的法规文本。相比之下,传统方式需多轮专家研讨、公众意见征集、法律合规审查,往往耗时一年以上。而总法律顾问 Gregory Zerzan 在一封内部邮件中直言:“我们不需要完美的规则,甚至不需要‘很好’的规则——只要‘足够好’,能覆盖主要风险就行。”

图源备注:图片由AI生成,图片授权服务商Midjourney
“几秒钟出法规”?专家警告:这不是效率,是冒险
这一“速度至上”的思路,迅速在业内引发强烈反弹。多位前政府官员和法律学者指出,交通法规关乎生命安全,容不得半点马虎。
前DoT首席AI官 Mike Horton 在社交媒体上直言:“这就像让一名刚学开车的高中生去设计高速公路的限速标准。”他强调,法规不是模板填充,而是基于几十年数据积累、事故分析、行业反馈和法律先例的精密工程。
更令人担忧的是,Gemini 近期已被证实存在严重的“幻觉”问题。2023年《自然》期刊的一项研究显示,主流大模型在专业医学问答中错误率高达37%;而在2024年《连线》杂志的测试中,Gemini 曾虚构不存在的航空安全标准,并错误引用已被废止的联邦法规条款。这些错误若被用于制定空中交通管制规则或自动驾驶车辆的紧急制动阈值,后果不堪设想。
政治推动下的“速成立法”:谁来负责?
据多名匿名DoT内部人士透露,该计划得到了特朗普政府高层的明确支持。Zerzan 在内部备忘录中提到,白宫方面“非常兴奋”,并要求在30天内完成首批AI起草的法规草案,作为“行政效率改革”的标志性成果。
但法律界普遍质疑:如果AI生成的法规出现漏洞或误导性条款,谁来承担法律责任?是开发者?是使用它的官员?还是最终签字的部长?目前美国《行政程序法》并未对AI参与立法流程做出任何规范,这意味着一旦出事,追责将陷入法律空白。
2024年6月,美国国家运输安全委员会(NTSB)发布报告指出,过去五年中,因监管模糊导致的铁路信号误判和航空通信协议冲突事件上升了22%。专家警告,若再用不透明的AI系统制造更多“模糊地带”,事故风险只会进一步加剧。
公众缺席,行业沉默:谁的声音被忽略了?
传统法规制定过程中,公众听证、行业协会反馈、学术机构建言是不可或缺的环节。然而,DoT此次计划中,AI生成的草案将直接进入内部修订流程,公众参与机制几乎被完全跳过。
美国汽车工程师学会(SAE)、航空运输协会(ATA)等关键行业组织均未被提前告知。一位不愿具名的航空安全顾问表示:“我们连草案长什么样都不知道,怎么提修改意见?等规则出台后,我们只能被动适应——这根本不是治理,是强推。”
两极分化:效率救星,还是定时炸弹?
支持者认为,DoT积压了超过200项待审法规,部分老旧标准已无法应对电动飞机、自动驾驶卡车等新兴技术。他们主张,AI可作为“辅助工具”,快速生成初稿,再由人类专家打磨。
但反对者反问:当“足够好”成为官方标准,谁来定义“足够”?当AI为赶进度而忽略边缘案例,当事故调查发现“规则根本没覆盖到这种情形”,谁来为那条被忽略的铁路道口、那个未被识别的盲区买单?
目前,国会两党已有议员开始酝酿听证会。美国参议员 Elizabeth Warren 的办公室已致函DoT,要求公开所有AI生成草案的训练数据来源、人工审核流程及风险评估报告。与此同时,非营利组织“公共公民”(Public Citizen)已向联邦法院提起信息公开申请,要求披露DoT与谷歌之间的合作合同细节。
这场争论,远不止是技术选型问题。它关乎:在关乎生死的公共安全领域,我们究竟要的是速度,还是责任?