最新消息:关注人工智能 AI赋能新媒体运营

OpenAI被曝拟效仿《使命召唤》反派,煽动大国对立以融资

科技资讯 admin 浏览

“制造恐慌来赚钱”?OpenAI内部曾密谋激进地缘政治策略

2023年,一份内部会议记录悄然流出,揭示了OpenAI高层曾认真讨论过一项令人震惊的策略:故意在国际社会制造对人工智能的恐慌,迫使中美欧等大国为避免“技术落后”而争相注资。这不是科幻小说的情节,而是这家全球最具影响力的AI公司内部真实发生过的辩论。

据多名知情人士透露,当时公司前政策顾问提交了一份名为《避免全球AI军备竞赛》的报告,主张推动国际合作与监管框架。但时任总裁格雷格·布罗克曼当场提出相反观点:“如果我们不让他们害怕,他们就不会掏钱。”他的逻辑简单而冷酷——当各国政府相信“谁先掌握AGI,谁就掌控未来”,他们就会不惜一切代价抢购技术,哪怕代价是失控的风险。

“囚徒困境”:让政府别无选择

这一策略的核心,是人为构建一个“囚徒困境”:每个国家都知道,如果自己不投资AI,就可能被对手超越;但如果大家都投,全球将陷入不可控的军备竞赛。而OpenAI,正是那个唯一能提供“安全解”的供应商。

时任OpenAI政策团队成员、现为Anthropic政策负责人的杰克·克拉克,曾在一次非正式谈话中形容:“我们不是在卖AI,我们是在卖安全感。我们让各国觉得,不买我们的产品,就是把国家安全交到别人手里。”

具体操作方式包括:在关键节点释放模糊但极具威慑力的技术演示,比如“模型能预测军事调动”“可自动生成虚假情报”;通过媒体渠道暗示“中国已部署AI指挥系统”;甚至在内部邮件中讨论“是否该让欧盟误判我们与五角大楼的接触深度”。

员工炸锅:有人当场摔门,多人准备辞职

这个计划在公司内部引发强烈反弹。一名参与讨论的AI研究员回忆:“我听完后一句话没说,直接走出会议室。我花五年做AI,是为了帮助人类,不是为了挑起战争。”

随后数周,超过20名核心工程师和研究人员联名签署内部备忘录,要求立即终止该计划,否则将集体辞职。其中一人写道:“如果我们连底线都不要了,那我们和军火商有什么区别?”

最终,布罗克曼被迫让步。该计划未被正式立项,也未执行。但多名员工表示,此后公司文化明显转向“结果导向”,伦理审查被边缘化,高管更频繁地强调“速度优先于安全”。

OpenAI回应:纯属捏造?

面对媒体曝光,OpenAI迅速发布声明,称相关说法“荒谬可笑,毫无事实依据”,并强调“公司始终以安全和负责任为最高准则”。

但蹊跷的是,声明中并未否认曾讨论过“地缘政治焦虑”或“利用国家竞争”——只是说“没有付诸行动”。而多名离职员工向《华尔街日报》和《纽约客》证实,相关讨论确曾发生,且不止一次。

更耐人寻味的是,就在该计划被叫停后不久,OpenAI与美国国防部签署了一项秘密合作备忘录,为美军提供“非致命性AI辅助决策系统”。外界至今不知其具体边界。

现实比电影更残酷:AI竞赛已进入“热战”阶段

2024年4月,GPT-6即将发布。据知情人士透露,其推理能力已接近人类专家水平,在代码生成、金融预测、甚至外交文书起草方面表现惊人。与此同时,中国阿里通义千问、Meta的Llama 3、谷歌Gemini 2.0均在加速迭代。

资金流向已成风向标:2023年,全球AI初创企业融资总额突破1200亿美元,其中近40%流向美国企业。而中国、欧盟、印度纷纷宣布“AI国防专项基金”,总额超800亿美元。

美国参议员伊丽莎白·沃伦在国会听证会上直言:“我们正在目睹一场由私营企业推动的、没有条约约束的军备竞赛。而OpenAI,是这场竞赛的操盘手。”

技术之巅,谁来守底线?

在《使命召唤》里,反派靠挑动战争发财;在现实中,一家硅谷公司靠制造恐惧赚钱,却没人能说它违法。

我们正站在一个危险的十字路口:当AI的算力、数据和算法被少数几家公司垄断,而它们的决策动机是利润而非公共利益,谁来阻止它们把人类推向深渊?

OpenAI声称自己是“非营利组织”,但其利润分配机制早已向微软倾斜;它说“安全第一”,却在2023年拒绝向欧盟公开模型训练数据来源;它标榜“开放”,却对全球研究者封锁关键接口。

技术没有善恶,但掌握技术的人有。

当一家公司能左右国家的国防预算,当一个CEO的一次会议决定全球AI走向,我们是否还拥有真正的民主?

答案,或许不在代码里,而在每一个普通人是否愿意追问:“谁在为我们选择未来?”