中国AI初创公司DeepSeek上周发布并开源了DeepSeek-V4预览版,宣称新版本支持高达100万个Token的上下文长度,显著提升了智能体(Agent)能力,性能可媲美顶级闭源模型。据路透社报道,DeepSeek在开发V4期间与华为密切合作,并针对华为芯片技术进行了优化调整。
DeepSeek在V4中引入了新的注意力机制,结合DSA稀疏注意力(DeepSeek Sparse Attention)与Token压缩设计,大幅降低处理长上下文所需的计算资源与显存消耗。此外,从V4开始,100万Token的上下文长度将成为DeepSeek官方服务的标准配置。
在智能体应用方面,DeepSeek-V4已支持Claude Code、OpenClaw、OpenCode与CodeBuddy等主流开发框架,可无缝集成至现有工具中执行复杂任务。官方表示,模型已针对代码生成、文档撰写与多步骤流程进行专项优化,能够连续完成从数据收集、整理到结果输出的完整工作流,而不仅限于单次响应。
事实上,DeepSeek内部已将V4作为实际运行的Agentic Coding模型,用于执行程序开发相关任务。
DeepSeek-V4分为V4-Pro与V4-Flash两个版本。V4-Pro主打高性能,在世界知识、数学、STEM及竞赛级编程任务中表现突出;V4-Flash则采用更小的参数量与激活设计,推理能力接近V4-Pro,但推理速度更快、API成本更低,更适合日常使用与大规模部署。
相较于顶级闭源模型,V4-Pro在多项评测中展现出强劲竞争力。例如,在世界知识测试中领先其他开源模型,仅略逊于Google的Gemini 3.1 Pro;在数学、STEM与竞赛级编程任务中已达到顶级闭源模型水平;在Agentic Coding相关评测中,V4-Pro的表现优于Claude Sonnet 4.5,并接近Claude Opus 4.6的非思考模式表现。但在更高强度的推理任务(如思考模式)中,V4-Pro与顶级闭源模型仍存在一定差距。

DeepSeek-V4延续其低成本策略。根据官方公布的API定价,V4-Pro每百万Token输入价格约为1元人民币(缓存命中)或12元人民币(未命中),输出为24元人民币;V4-Flash则分别为0.2元、1元和2元人民币。
相比之下,OpenAI GPT-5.4每百万Token输入约为2.5美元、输出约为15美元,而Claude Opus 4.6则约为输入5美元、输出25美元,显示出DeepSeek-V4在长文本处理与大规模推理场景中具备显著的成本优势。
值得注意的是,DeepSeek官方发布内容与华为公开信息中均未明确说明V4与华为的具体合作细节。路透社援引华为说法称,其芯片已被应用于V4的部分训练过程。