最新消息:关注人工智能 AI赋能新媒体运营

OpenAI发布GPT-5.4-Cyber,开放更多网络安全人员使用

科技资讯 admin 浏览

为与Anthropic的Claude Mythos抗衡,OpenAI于昨日(4月14日)发布专为网络安全分析训练的模型GPT-5.4-Cyber,供安全专业人员使用。

OpenAI今年2月推出了“网络安全可信访问”(Trusted Access for Cyber,TAC)计划,允许安全厂商和组织使用经过强化的AI模型。本周,OpenAI进一步扩展该计划,让更多人员可通过此计划访问模型。其中最高权限用户可使用GPT-5.4-Cyber。该模型基于最新大语言模型GPT-5.4微调而成,专门增强网络防御能力。

OpenAI表示,与标准版本相比,GPT-5.4-Cyber降低了模型的拒绝边界,使其可用于合法的网络安全任务,并新增多项高级防护功能,包括二进制文件逆向分析,使安全专家能够在无需源代码的情况下分析恶意软件、识别系统软件漏洞和安全风险。

由于该模型限制更少,OpenAI目前仅对经过审核的安全厂商、组织和研究人员提供有限且逐步扩展的部署。对于缺乏透明度的使用场景,访问权限也受到限制,例如零数据保留(Zero Data Retention,ZDR)。特别是通过第三方平台访问OpenAI模型的用户,因OpenAI无法了解其用户身份、使用环境及请求目的,故受到更严格管控。

OpenAI也公布了加入TAC计划的方法。个人用户可通过ChatGPT网站完成身份验证,企业用户可联系OpenAI销售团队申请加入。审核通过后,用户即可使用安全限制更低的模型,开展安全培训、防御性编程和负责任的漏洞研究。已加入TAC的用户也可申请提升权限,以获取GPT-5.4-Cyber的访问资格。

多家媒体指出,OpenAI此举是对一周前竞争对手Anthropic发布具备漏洞检测能力的Claude Mythos的直接回应。该模型已成功发现数千个漏洞,包括数十年未被发现的OpenBSD零日漏洞。Anthropic还通过全球网络安全计划“Project Glasswing”,联合十余家科技与金融企业,向数十家关键基础设施机构提供模型支持,以加速漏洞发现。

上月,OpenAI还发布了安全代理工具Codex Security,该工具可自动分析代码、识别潜在安全漏洞并提出修复建议。