最新消息:关注人工智能 AI赋能新媒体运营

奥尔特曼批Anthropic沉迷恐慌式营销

科技资讯 admin 浏览

OpenAI 与 Anthropic 的“安全之争”:谁在真正守护AI的未来?

最近,OpenAI 首席执行官萨姆·奥尔特曼在一则热门播客中,直接点名竞争对手 Anthropic,批评其新发布的 Mythos 模型“打着安全的旗号,行垄断之实”。这不是一次普通的行业评论,而是一场关乎技术开放与权力分配的公开对峙。

Anthropic 上月推出 Mythos 模型,声称其能力远超现有系统,为避免被滥用——比如生成诈骗内容、操控舆论或自动化网络攻击——决定仅向少数企业客户开放,拒绝公众访问。听起来很合理,甚至有点“负责任”。但奥尔特曼不买账:“这不是保护公众,这是制造稀缺性。”

他打了个比方:“你先在社区里散布‘有怪物要来了’,等大家都慌了,再卖他们高价的防弹门。这不叫安全,这叫营销。” 他指出,真正的安全不是靠锁门,而是靠透明、测试和公众监督。OpenAI 的 GPT-4o 尽管强大,但依然向数亿用户开放,通过真实世界的使用来迭代安全机制。

“技术危险论”成了AI圈的流量密码

事实上,这种“先吓人,再卖解决方案”的套路,在AI圈早已不是新鲜事。去年,某大厂发布模型时,用“可能引发人类文明崩溃”作为宣传语,结果被网友扒出,其内部测试显示模型连基本算术都常出错。类似操作屡见不鲜:夸大风险,制造焦虑,然后推出“只有我们能解决”的付费方案。

但问题在于,当整个行业都在用“危险”当卖点,普通人反而分不清:哪些是真担忧,哪些是包装话术?一位硅谷前AI研究员私下对媒体表示:“我们内部开玩笑说,现在不提‘对齐风险’‘超级智能失控’,都不好意思开发布会。”

更讽刺的是,OpenAI 自己也曾是“风险叙事”的受益者。奥尔特曼过去多次在国会听证会上呼吁监管AI,甚至暗示“我们可能需要政府来管住自己”。但这一次,他把矛头对准了同行——不是因为风险不存在,而是因为有人在利用它来划地为王。

谁有资格决定AI该给谁用?

Anthropic 声称 Mythos 模型“太强大,不能公开”,但没公布任何具体的技术证据。没有公开的测试报告,没有第三方审计,也没有透明的使用条款。而 OpenAI 则持续发布模型能力评估、安全测试数据,甚至开放部分接口供研究者使用。

这背后是两种哲学的碰撞:一种是“精英控制论”——技术太危险,只能交给少数专家和大公司;另一种是“开放进化论”——只有让更多人参与、测试、反馈,技术才能真正安全。

有意思的是,欧盟《人工智能法案》和美国白宫近期的AI安全框架,都明确鼓励“可访问性”和“透明度”,而不是封闭式控制。这意味着,Anthropic 的做法,正与全球监管趋势背道而驰。

更深层的问题是:如果一家公司能靠“不开放”来建立护城河,那小企业、独立开发者、发展中国家的研究者,是否永远被挡在AI革命的门外?当AI变成少数巨头的私有武器,我们真的更安全了吗?

AI,机器人打架,撕逼,战斗

这场争吵,关系到每一个普通人的未来

这不是科技公司之间的口水战。它关乎你未来能否免费使用AI助手写邮件、做作业、查医疗信息;关乎你的数据会不会被锁在某个公司的黑箱里;关乎我们是否还能拥有一个开放、公平、可参与的AI时代。

奥尔特曼或许不是圣人,OpenAI 也并非完美。但当一个行业用恐惧代替透明,用封闭代替进步,那我们失去的,可能不只是技术的自由,更是对未来的控制权。

这场“安全之争”,最终要由公众来投票——是选择被保护的牢笼,还是共同参与的开放世界?