美国政府联手科技巨头,提前审查AI模型安全风险
近日,美国商务部下属的人工智能标准与创新中心(CAISI)与谷歌DeepMind、微软、xAI等多家顶尖AI公司达成一项关键协议:在任何新一代人工智能模型向公众开放前,必须先向政府提交早期版本,接受安全评估。这不是一次简单的技术沟通,而是一场关乎国家安全、公共安全与技术失控边界的实质性协作。
这项合作的背景,是近年来AI能力的爆炸式增长。从能自动生成逼真视频的模型,到可推演生物化学反应的系统,这些技术一旦落入恶意者之手,可能被用于伪造政要言论、设计新型生化武器,甚至瘫痪关键基础设施。CAISI主任克里斯·福尔直言:“我们不能再等模型上线后才去补窟窿。必须在它还没跑出实验室之前,就搞清楚它能做什么、会带来什么危险。”
过去,科技公司往往把AI模型当作商业机密,发布前不对外公开细节。但现在,情况变了。微软已在英国与政府支持的AI安全研究所达成类似协议,要求对模型进行“红队测试”——即由专业安全团队模拟黑客攻击,找出系统漏洞。谷歌DeepMind也已内部设立“安全前哨”团队,专门负责与政府机构对接审查流程。xAI虽由马斯克创立,但其团队同样参与了这一机制,显示出行业共识正在形成。
值得注意的是,Anthropic公司推出的“Mythos”模型,因被内部评估认为存在“高风险扩散可能”,已主动限制其公开使用范围。该公司还联合多家企业发起了名为“玻璃之翼”(Glass Wings)的倡议,目标是建立一套跨公司、跨国界的AI安全共享机制,重点保护电网、金融系统、医疗数据库等核心软件免受AI驱动的网络攻击。
谁在管?怎么管?公众能放心吗?
很多人会问:政府凭什么管科技公司?谁来保证审查不被滥用?
CAISI并非执法机构,它没有权力阻止模型发布,而是扮演“技术侦探”的角色——用独立、可复现的科学方法,测量模型的潜在危害。比如,它会测试一个AI能否通过对话诱导用户制造危险物质,或能否绕过内容过滤生成非法图像。这些测试结果不公开细节,但会形成一份“风险报告”,供国安、国土安全部门参考。
这背后,是美国政府对AI“黑箱”问题的深刻焦虑。2023年,美国国家科学院发布报告指出,当前主流AI模型的决策过程仍高度不可解释,即使开发者自己也无法完全预测其极端行为。而2024年初,美国网络司令部的一次模拟演习中,一款未受控的AI模型仅用72小时就成功渗透了三处模拟的能源控制网络。
尽管特朗普政府曾被传拟出台行政命令强制AI审查,但白宫已明确否认“行政命令”说法。目前,这项合作仍基于自愿协议,属于“非强制性但高度优先”的行业规范。不过,业内普遍认为,若未来两年内发生重大AI相关安全事件,立法强制审查将成为必然。
全球同步,中国公司也在行动
这场安全博弈并非美国独有。欧盟已启动“AI法案”第二阶段,要求高风险AI系统必须通过政府认证;英国在2024年成立“AI安全峰会”,邀请中美企业参与;中国科技部也在2024年4月发布《生成式人工智能服务安全基本要求》,明确要求模型需具备内容过滤、行为追溯和应急关停能力。
值得注意的是,国内头部AI企业如百度、阿里、讯飞等,均已建立内部“AI伦理审查委员会”,部分企业已开始向政府相关部门提交模型测试数据,虽未公开细节,但合作趋势已现。
说到底,这不是一场“政府 vs 科技公司”的对抗,而是一场“人类 vs 未知风险”的防御战。当AI能写代码、造病毒、模仿总统讲话时,没人能独善其身。技术越强,责任越大——这是今天所有AI开发者都必须面对的现实。
