2026年4月25日,英伟达宣布其Blackwell平台完成对DeepSeek-V4-Pro(1.6T参数)和V4-Flash(284B参数)两款大模型的适配。两款模型均支持百万Token上下文及38.4万Token输出长度,采用MIT开源协议。开发者可通过NVIDIA NIM微服务一键部署,或使用SGLang、vLLM框架进行定制化推理。实测显示,V4-Pro在GB200 NVL72上推理速度超150 tokens/sec/user,并支持多节点扩展与工具调用。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。



