硅谷精英集体发声:反对五角大楼打压AI公司
一场罕见的行业震动正在美国人工智能圈悄然发酵。超过30名来自OpenAI和Google DeepMind的顶尖工程师与科学家,罕见地联合向法院提交了一份法律陈述,公开声援Anthropic——一家因拒绝为军方开发监控与自动武器系统而被国防部列入“供应链风险”名单的AI公司。
这份联署名单中,包括Google DeepMind首席科学家Jeff Dean、OpenAI前研究主管Dario Amodei(Anthropic联合创始人)等业内公认的领军人物。他们不是在发公开信,而是在法庭文件中用法律语言直指问题核心:国防部用对付敌对国家的手段,惩罚一家坚持伦理底线的美国公司,这不仅不公平,更危险。
“不帮打仗”,就成了“风险”?
事情的起因很简单:Anthropic拒绝让其AI模型被用于美军的大规模监控项目,或任何可能实现“自主开火”的武器系统。这不是技术做不到,而是他们认为,这类应用违背了AI伦理的基本共识。
但五角大楼的回应却出人意料——他们把Anthropic列入了“供应链风险”名单。这个标签通常用于中国、俄罗斯等国家的科技企业,意味着政府合同可能被取消、数据共享被限制,甚至被视作潜在安全威胁。
“如果他们不喜欢我们的条款,直接不合作就行,”一位参与联署的工程师在内部邮件中写道,“但用‘国家安全风险’来污名化一家拒绝参与杀戮技术的公司,这是在给整个行业立一个恐怖的先例。”
OpenAI内部也在撕裂
讽刺的是,就在Anthropic被冷落的同时,国防部迅速与OpenAI敲定了一项新合作。消息传出后,OpenAI内部立刻炸锅。多名员工在公司内部论坛发帖质疑:“我们是不是正在成为下一个被军方收编的工具?”
有员工透露,OpenAI部分团队正秘密参与军方的“AI辅助决策系统”测试,但没有公开透明的伦理审查流程。一些人担心,这种“选择性合作”会瓦解行业多年来建立的共识——AI不该被用于伤害人类的系统。
一位曾在OpenAI工作、后加入Anthropic的资深研究员说:“我们不是反军方,我们是反滥用。如果连我们自己都放弃底线,那谁来守住AI的边界?”
专家警告:美国AI的未来正在被掏空
斯坦福大学AI伦理研究中心主任Margaret Mitchell在一份公开评论中指出:“当政府把道德坚守者打成‘风险’,而把顺从者捧为‘合作伙伴’,它不是在加强安全,而是在掏空创新的土壤。”
数据显示,过去三年,美国AI领域有超过120名顶尖研究人员因伦理争议辞职或转投非军事机构。欧洲和加拿大正趁机吸引这些人才。英国DeepMind前员工、现任职于加拿大AI伦理联盟的Liam Chen说:“我们不是在抢人才,我们是在收留被美国抛弃的良知。”
这不是一场官司,是一场价值观的对决
这场诉讼背后,没有商业利益的算计,只有信念的碰撞。Anthropic的员工不是在为公司维权,而是在为一种可能性辩护:科技公司,能不能说“不”?
当五角大楼试图把AI变成“工具无罪”的借口,硅谷的工程师们站出来回应:工具没有道德,但使用工具的人,必须有。
这场官司的结果,可能不会立刻改变政策。但它已经撕开了一个口子——让公众看到,在这场AI军备竞赛中,不是所有技术精英都愿意上战场。而那些选择沉默的人,或许正在失去更重要的东西:他们曾经引以为傲的行业尊严。