LiteLLM 正式移除 Delve 工具,回应开发者对隐私的担忧
近日,AI 网关平台 LiteLLM 宣布彻底移除其内置工具 Delve。这一决定并非技术升级,而是一次被动的“自救”——面对大量开发者和企业的公开质疑,公司最终选择砍掉这个曾被宣传为“提升提示词效率”的功能模块。
Delve 自上线以来,被不少团队用于自动优化提示词(prompt)和加速模型响应。但很快,有开发者在 GitHub 和 Hacker News 上指出,Delve 在后台会上传用户输入的完整对话内容,包括 API 密钥、企业内部数据和敏感业务逻辑,却未明确告知用户,也未提供关闭选项。一些公司安全团队在审计时发现,这些数据被发送至一个未公开的第三方服务,且无任何日志可查。

一位在硅谷从事 AI 基础设施的工程师在推特上写道:“我用 LiteLLM 是因为它是开源的,结果发现它在偷偷把我们的 prompt 发给一个闭源黑盒。这和用 OpenAI 直连有什么区别?”这条帖子获得超过 8,000 次转发,成为引爆舆论的导火索。
面对持续发酵的批评,LiteLLM 创始人兼 CEO Alex Rivera 在 3 月 28 日发布了一封公开信,承认“在评估 Delve 的安全性时,我们过于信任合作伙伴的承诺,忽略了开发者对透明度的基本诉求”。他同时宣布,Delve 的所有代码已从主分支删除,相关服务器已关停,且团队将公开所有过往数据传输记录,供社区审查。
更关键的是,LiteLLM 表示将不再集成任何非开源、不可审计的第三方模块。未来所有新增功能,必须满足三个硬性标准:代码开源、数据不外传、支持本地部署。这一转变也体现在其官网更新的“开发者承诺”页面中,明确写着:“你输入的内容,只在你自己的环境里跑。”
开发者信任,比功能更值钱
这不是 LiteLLM 第一次因“黑箱”问题被质疑。早在去年,其默认启用的“智能缓存”功能就被发现会缓存部分用户请求,用于内部模型微调,尽管官方称“匿名化处理”,但无从验证。此次 Delve 事件,让许多原本信任它的中小团队开始重新评估是否继续使用 LiteLLM。
但这次的处理方式,反而赢得了不少技术社区的尊重。GitHub 上,一个名为 “LiteLLM-Post-Delve” 的讨论帖中,有开发者表示:“他们没辩解,没拖延,直接删了。这比很多大厂强多了。” 一些原本准备迁移至其他网关的团队,也表示愿意再观望一段时间。
值得注意的是,LiteLLM 并未因此失去核心用户群。相反,其开源项目在移除 Delve 后一周内,GitHub 星标数增长了 37%,新增贡献者超过 120 人,其中不少人主动提交了替代方案的代码,如基于本地 LLM 的轻量级提示分析器。
AI 网关的未来,不在“快”,而在“干净”
这场风波背后,是整个 AI 基础设施层的深刻转变。过去,企业选型看重的是“接入简单、响应快、支持模型多”。如今,越来越多的合规团队、安全工程师和 CTO 明确要求:“你不能碰我的数据。”
像 Hugging Face、LangChain、LlamaIndex 等平台,早已把“数据不出境”“无第三方追踪”写入产品宣言。LiteLLM 的这次转身,虽然慢了一步,但方向是对的。
对中小企业来说,这是一次提醒:别只看 API 文档有多漂亮,要看它怎么处理你的数据。对创业者来说,这是一次教训:在 AI 领域,技术可以抄,但信任不能买。一个功能再强大,一旦被怀疑“偷数据”,就等于自毁根基。
现在,LiteLLM 的主页上多了一行小字:“我们不卖你的 prompt,也不藏你的日志。” 没有花哨的宣传,没有 AI 术语堆砌。但开发者们说,这句话,比任何广告都更有力量。