
Cisco在RSAC 2025宣布推出首款开放AI资安模型--Foundation AI Security,Cisco执行副总裁暨产品长Jeetu Patel表示,这是Cisco新成立的Foundation AI团队针对资安领域应用所推出的第一个大语言模型,Cisco将以开放权重的方式释出模型,协助资安人员更容易将AI应用于资安分析、维运与防护等工作。
面对新型态威胁,资安防护的急迫性已达到前所未有的高度,Patel在演讲中强调:「真正的敌人不是竞争对手,而是恶意攻击者。」随着威胁演变速度超越人力反应速度,资安防护已从人类规模转向机器规模,AI将成为防御体系中不可或缺的关键。
Cisco推出的Foundation AI Security基础语言模型(Foundation-Sec-8B),是以Llama-3.1-8B为基础,挑选资安领域文本资料进行持续预训练,拥有80亿个参数。Patel指出,训练资料的类型涵盖资安情资报告、弱点漏洞资料库、资安事件应变处理文件与相关资安标準等,最后从高达9000亿个Token的资料量中筛选出最适合的50亿个Token进行训练。
Cisco指出,Foundation AI Security模型主要针对三大资安应用场景进行最佳化,包括资安营运中心(SOC)作业加速,可提供自动化资安事件分类、资安事件摘要生成、案件记录撰写及证据蒐集;提升主动式威胁防御,如模拟攻击情境、漏洞优先排序、攻击手法(TTPs)映射与模拟攻击者行为;以及提供资安建议、配置验证、合规评估,协助提升整体资安态势。
Patel表示,Foundation AI Security可在配置一到两颗Nvidia A100 GPU的服务器上顺畅运行,对于运算能力的要求远低于一般大型语言模型动辄需要30颗以上GPU的规模。这大幅降低了部署AI资安防护的门槛,让企业能更容易将AI技术落地于现有环境中,实现真正的普及化与可扩展性。
Cisco表示Foundation AI Security可应用于多种资安任务,包括:
摘要生成:侦测剧本(playbooks)与事件报告摘要、整合资安分析师笔记生成结构化事件摘要分类任务:将威胁对应至MITRE ATT&CK攻击手法、根据情境风险对漏洞风险进行优先排序具名实体识别(NER):从文件中撷取合规证据、建立网路行为轮廓问答应用:协助SOC分析师进行警示调查与应变处理查询推理与文字生成: 生成红队攻击计画与威胁建模报告、预测攻击者在持续调查中的下一步行动、强化漏洞扫描结果,提供情境化分析Patel指出,Foundation AI Security基础大语言模型已于Hugging Face提供下载使用,未来亦将推出推理模型,以及相关的工具软件。