Mozilla.ai 推出 any-llm v1.0,提供可同时连接云端与本地大型语言模型的统一 API 接口。any-llm 项目的核心理念是通过一套稳定一致的接口,降低开发者在不同模型和供应商之间切换的成本,使开发者无需因各家 API 差异而重写代码,即可在 OpenAI、Anthropic、Mistral 等云端模型,以及本地部署方案如 llama.cpp 和 llamafile 之间灵活切换。Mozilla.ai 强调,这种架构能降低系统耦合度,避免应用层逻辑被单一供应商绑定。
在 1.0 版本中,官方重点提升了稳定性和一致性。新版本新增了对 OpenAI 风格的 Responses API 支持,并提供 List Models API,可编程查询各供应商可用模型,同时引入可重复使用的客户端连接机制,以提升在并发或流式场景下的性能表现。推理输出也被标准化,确保开发者能跨供应商获得一致的响应字段。此外,系统会自动更新兼容性矩阵,清晰展示各模型供应商的功能支持情况。
Mozilla.ai 表示,any-llm v1.0 采用异步优先架构并支持流式返回,能更高效应对高吞吐量任务。为避免版本更新带来意外变化,系统会对即将修改的接口标注为弃用或实验性状态,方便开发者提前调整。
Mozilla.ai 计划在后续版本中增加原生批量推理功能、支持更多供应商,并深化与同系列项目 any-guardrail、any-agent 及 mcpd 的整合。