最新消息:关注人工智能 AI赋能新媒体运营

OpenAI以55.5万美元年薪挖角竞争对手安全主管

科技资讯 admin 浏览

OpenAI重金挖角Anthropic安全主管,AI安全大战正式开打

本周二,OpenAI正式宣布,前Anthropic安全团队核心成员迪伦·斯堪的纳罗(Dylan Scanlon)加盟,出任公司新设立的“AI安全负责人”一职。这一人事变动在业内掀起不小波澜——不是因为职位本身,而是因为OpenAI为他开出了高达55.5万美元的底薪,折合人民币近390万元,远超行业平均水平。

斯堪的纳罗并非普通技术主管。他在Anthropic任职期间,深度参与了“AI宪法”(AI Constitution)的制定与落地,这套框架被广泛视为业界最严谨的AI伦理与安全准则之一。他主导的系统性风险评估模型,曾帮助Anthropic在多个关键模型发布前,成功规避了潜在的滥用风险。OpenAI这次“挖墙脚”,明显是冲着他的实战经验来的——不是要一个会写报告的人,而是要一个能在真实世界里挡住黑产、误用和系统性偏差的“守门人”。

为什么OpenAI现在急着补上安全这一课?

就在斯堪的纳罗入职前一周,OpenAI内部泄露的文件显示,其下一代大模型GPT-5的训练已进入最后阶段,预计将在今年第三季度上线。据知情人士透露,该模型在推理能力、多模态理解和自主决策方面,将远超当前版本。这意味着,它的潜在风险也呈指数级上升——从生成深度伪造内容,到模拟人类进行金融欺诈,甚至影响选举舆论,都已不是科幻情节。

过去几年,OpenAI一直被外界批评“重速度、轻安全”。虽然公司设立了AI安全委员会,但实际决策权仍集中在工程团队手中。这次高薪挖人,某种程度上是公开承认:光靠口号和伦理委员会,挡不住真正的威胁。奥尔特曼在推特上罕见地没有谈技术突破,而是写道:“我们正在进入一个新阶段——模型越强,越需要有人在它前面,立一道真正的墙。”

Anthropic的“安全牌”,正被对手拿来用

Anthropic自成立以来,一直把“安全”作为核心卖点。其联合创始人Dario Amodei曾是OpenAI的早期成员,后因理念分歧出走,带着团队另起炉灶,主打“可解释性”和“可控性”。他们甚至公开承诺:不发布未经充分验证的模型。这种“慢而稳”的策略,吸引了一批对AI风险高度敏感的客户,包括部分政府机构和教育系统。

如今,OpenAI反向“抄作业”,把Anthropic最拿手的人才挖了过来,意味着这场AI竞赛已从“谁先跑得快”,转向“谁更能控制风险”。这不是简单的跳槽,而是一次战略抢滩。有分析师指出,未来两年,AI企业的估值将不再只看参数和算力,而是看“安全团队的厚度”和“危机响应的效率”。

这场人才战,才刚刚开始

斯堪的纳罗的入职,不是终点,而是信号。据多位行业消息人士透露,已有至少三家AI初创公司正在接触曾参与“AI宪法”项目的原Anthropic员工,开出的薪资普遍在50万至70万美元之间,外加股权激励。硅谷的AI安全圈,正在形成一个“高薪黑市”。

更值得注意的是,美国国会已开始关注这一趋势。上周,参议院科技小组召开闭门听证会,议题就是“AI安全人才被巨头垄断是否构成系统性风险”。一位议员直言:“如果所有顶尖的安全专家都集中在三家硅谷公司手里,那谁来监管他们?”

对普通用户来说,这或许意味着未来你用的AI助手会更“听话”、更少出错,但也可能更“保守”——因为背后,正有一群人拿着百万年薪,试图在技术狂奔中,拉住那根随时可能断裂的刹车线。