DeepSeek V4开源发布:代码性能跃居开源榜首,百万上下文+超低价

DeepSeek V4预览版正式开源,包含参数总量1.6万亿(激活49B)的V4-Pro与2840亿(激活13B)的V4-Flash两款模型,均支持100万token超长上下文,采用MIT开源协议。

第三方评测显示,Arena.ai在其代码竞技场中将V4-Pro(思考模式)列为开源模型第3位、综合第14位,并定义为相较V3.2的“重大飞跃”;Vals AI在Vibe Code Benchmark中确认V4以“压倒性优势”位居开源权重模型榜首,超越Kimi K2.6及Gemini 3.1 Pro等闭源模型,较V3.2实现约10倍性能提升——V3.2该基准得分仅为5分。Vals综合指数排名中,V4位列第2,落后榜首Kimi K2.6仅0.07%。

价格方面,V4-Flash输出成本为每百万token 0.28美元,较Claude Opus 4.7低逾99%,为当前小模型区间最低价;V4-Pro输出定价3.48美元,低于Gemini 3.1 Pro(12美元)、GPT-5.4(15美元)、Claude Sonnet 4.6(15美元)及Opus 4.7(25美元),属大模型前沿区间最低档之一。DeepSeek指出,其低价源于对百万token场景的极致效率优化:V4-Pro单token推理算力为V3.2的27%,KV缓存仅10%;V4-Flash对应指标分别降至10%和7%。官方提示,受限于高端算力,当前V4-Pro服务吞吐有限,预计下半年昇腾950超节点批量上市后价格将大幅下调。

技术架构上,V4首创CSA(压缩稀疏注意力)与HCA(重度压缩注意力)混合机制,解决长上下文下注意力计算平方级增长难题;引入mHC流形约束超连接替代传统残差连接,并采用Muon优化器替代AdamW,适配MoE结构与低精度训练。全链路优化带来最高近2倍推理加速。在国产算力适配方面,V4完成华为昇腾NPU平台细粒度专家并行验证,在通用推理负载下实现1.50–1.73倍加速比,系全球首个在国产算力底座完成训练与推理的万亿参数级模型;寒武纪已通过vLLM框架完成V4-Flash与V4-Pro适配,相关代码开源至GitHub。

官方自评保持审慎:V4-Pro在知识与推理任务上接近Gemini等闭源系统,但仍有约3至6个月差距;在Agent与代码任务中表现最接近Claude Sonnet,内部已作为Agentic Coding主力模型,交付质量接近Opus 4.6非思考模式;数学、STEM及竞赛级代码评测中超越Kimi K2.6 Thinking与GLM-5.1 Thinking,成绩比肩顶级闭源模型。Simon Willison指出,V4-Pro是目前已知最大开源权重模型,参数规模超过Kimi K2.6(1.1万亿)、GLM-5.1(7540亿)及V3.2(6850亿)。

免责声明:本文内容由开放的智能模型自动生成,仅供参考。

最新文章
Copyright © DoNews 2000-2026 All Rights Reserved
蜀ICP备2024059877号-1