
Google上周五(4/4)发表针对资安的实验性AI模型Sec-Gemini v1,该模型建立在Gemini模型之上,同时整合了Google威胁情报、OSV漏洞资料库,以及Mandiant威胁情报,并免费提供给特定的组织、机构、专家,以及非政府组织以供研究之用,并已开放申请。
Google表示,有效地支援安全维运工作流程需要最先进的推理能力,以及广泛的现代资安知识,Sec-Gemini v1藉由结合Gemini的高阶功能、接近即时的网路安全知识,以及工具来实现此一目标,该组合可于关键网路安全工作流程上展现卓越的性能,包括事件根本原因分析、威胁分析,以及理解安全漏洞所带来的影响。
其中,Gemini为Google所训练的多模态大型语言模型,类似OpenAI的GPT系列以及Anthropic的Claude系列模型;Google威胁情报(Google Threat Intelligence,GTI)则是整合了Google在全球的安全分析与专业能力;OSV(Open Source Vulnerabilities)是个由Google主导的开源漏洞资料库与服务;Mandiant则是在2022年被Google以54亿美元纳入麾下的资安业者。
由于Sec-Gemini v1整合了上述的关键资料,使得它在用来评估资安专家对威胁情报理解能力的CTI-MCQ(Cyber Threat Intelligence – Multiple Choice Questions)基準测试中明显超越了OpenAI的多个GPT版本、Anthrop/c的Sonnet-3.5 v2、DeepSeek v3与Mistral AI的Mistral Large等竞争对手。
也在分析资安事件根本原因的Cybersecurity Threat Intelligence-Root Cause Mapping(CTI-RCM)基準测试中凌驾上述模型,此一测试评估了大型语言模型理解漏洞描述的细微差别,以识别形成漏洞的根本原因,并依照CWE準确分类。
例如Sec-Gemini v1能够判断Salt Typhoon是个中国间谍骇客组织,可全面描述Salt Typhoon的特性,并揭露该组织所使用的安全漏洞细节。
Google指出,攻击者只需要成功发现并利用一个资安漏洞,但防御者却必须抵抗所有网路威胁,此一不对称性使得保护系统变得异常艰难、耗时且容易出错,导入AI的资安工作流程可大幅放大资安人员的效能,有机会扭转此一劣势。