OpenAI联合创始人兼首席执行官Sam Altman上周宣布,公司正在招聘一名准备度主管,负责评估模型的风险,包括模型是否可能作恶、能否突破现有防护机制,以及是否适合发布等。该职位年薪为55.5万美元(约合人民币400万元),不包含股票。
根据OpenAI公布的职位信息,准备度主管隶属于安全系统团队,主导OpenAI准备度框架的技术策略与落地执行。该框架旨在说明OpenAI如何追踪并应对前沿能力可能带来的严重危害性新风险。
准备度主管将负责评估模型能力、识别潜在威胁,并制定相应的风险防控措施,确保这些工作被整合为一套统一、严谨且能随产品规模和更新节奏持续运行的安全流程。OpenAI表示,该职位需要扎实的技术判断力、清晰的沟通能力,以及在多个风险领域推动复杂工作的能力。
具体而言,该职位将全面负责OpenAI的准备度战略,主导前沿能力评估体系的开发,监督核心风险领域,引导评估结果的解读,并根据新出现的风险或能力持续优化准备度框架。同时,需与研究、工程、产品、政策监测,以及执法、治理和外部合作伙伴等跨部门紧密协作,确保准备度措施真正融入实际部署。
从职位设计来看,外界认为OpenAI正试图将安全关注的重点,从理论层面的长期风险,转向直接影响产品发布的实际问题。
Altman表示,如果你希望帮助世界为网络防御者提供最顶尖的能力,同时确保攻击者无法滥用这些能力;如果你关心生物相关功能的安全性,或希望探索如何安全地让系统实现自我进化,那么请考虑加入OpenAI。这是一份压力巨大的工作,从入职第一天起,就要直面最棘手的挑战。