最新消息:关注人工智能 AI赋能新媒体运营

Linux 基金会获谷歌、微软、OpenAI 联合资助1250万美元

科技资讯 admin 浏览

科技巨头联手出资1250万美元,为开源安全“清噪音”

当各大科技公司还在为大模型参数、算力份额和商业落地你争我夺时,Google、Microsoft、OpenAI、Anthropic、AWS 和 GitHub 却罕见地站到了同一边——为开源软件的安全出钱、出力。近日,Linux 基金会宣布获得这六家巨头合计1250万美元的专项资助,资金将由其下属的 Alpha-Omega 项目与 OpenSSF(开源软件安全基金会)共同管理,目标直指一个被忽视却日益严重的痛点:AI生成的虚假漏洞报告。

过去一年,开源社区的 issue 跟踪系统里,突然涌入大量“AI自动生成”的漏洞报告。这些报告语言规范、格式工整,甚至附带代码片段和复现步骤,看起来像模像样。但细看之下,很多根本不是真实漏洞——或是误判了API用法,或是把正常行为当成了安全风险,甚至有些是模型“幻觉”编造的不存在问题。一位维护者在 Reddit 上吐槽:“我一天要处理37条AI报告,其中只有1条是真的。我花在审核假报告上的时间,比修复真实漏洞还多。”

这不是个别现象。根据 OpenSSF 2024年发布的《开源安全现状报告》,GitHub 上超过28%的“安全报告”来自自动化工具,其中近六成被项目维护者标记为“无实质价值”。这些噪音不仅拖慢了响应速度,还让真正重要的漏洞被淹没在信息洪流中,形成“狼来了”效应。

这次注资,不是简单的“给钱了事”。六家公司正联合推动一套“AI漏洞报告可信度标准”:要求所有由AI生成的报告必须明确标注来源、提供置信度评分,并禁止在主流开源平台(如GitHub Security Advisory)中匿名提交。同时,Alpha-Omega 将投入资源开发自动化过滤工具,帮助维护者快速识别并屏蔽低质量报告。部分工具已进入内测,初期测试显示可减少70%以上的无效工单。

事实上,这已是科技巨头在安全领域第三次联手。2023年,他们共同签署《AI系统安全承诺》,承诺不利用模型生成恶意代码;2024年初,又联合发布《开源依赖项安全基线指南》,推动包管理器增加安全审计提示。这一次,他们把战场从“防止AI作恶”转向“让AI不添乱”——承认技术本身无善恶,但使用方式必须负责任。

开源不是免费的午餐,它需要被认真对待

很多人以为开源项目“没人管”,其实恰恰相反。Linux 内核、Node.js、OpenSSL、Python 标准库……这些支撑全球互联网运转的底层代码,几乎全靠志愿者和极少数全职开发者维护。他们没有KPI,没有奖金,却要面对成千上万的用户、日均数百条反馈,以及不断升级的攻击手段。

这次1250万美元的投入,是史上最大规模的“开源安全反哺”之一。资金不仅用于技术工具开发,还将支持15个高风险开源项目(如 OpenSSL、LibreSSL、Rust TLS 库)聘请专职安全工程师,填补长期人手不足的缺口。OpenSSF 已公布首批资助名单,包括 Apache Kafka、PostgreSQL 和 Kubernetes 的安全团队。

对普通开发者来说,这意味着什么?当你下次在 GitHub 上提交一个安全问题,系统会提示你:“请确认你已阅读《真实漏洞提交指南》”;当你使用一个开源库,它的安全公告栏会清晰标注“已通过AI过滤验证”;当你在公司部署开源组件,审计报告里会多出一行:“该组件已获得企业级安全支持”。

这不是一场公关秀。这是科技巨头在意识到:没有安全的开源,就没有他们的AI、云服务和开发者生态。当AI能写代码,也就能写“假漏洞”;当人人都能调用大模型,也意味着人人都能制造混乱。与其被动应对,不如主动重建秩序。

开源精神的核心,是协作与信任。这一次,资本和智慧没有选择独占,而是选择加固地基。1250万美元,买不到一个更强大的模型,但可能救回成千上万小时的开发者生命——而那,才是技术真正的价值所在。