DeepSeek-R1-0528 更新:推理能力显著提升,多项性能优化

DeepSeek R1 模型完成小版本升级至 DeepSeek-R1-0528。用户通过官方网站、APP 或小程序进入对话界面并开启“深度思考”功能即可体验,API 同步更新且调用方式不变。

新版本使用 2024 年 12 月发布的 DeepSeek V3 Base 模型作为基座,在后训练中投入更多算力,显著增强思维深度与推理能力。

在数学、编程和通用逻辑等多个基准测评中,DeepSeek-R1-0528 取得国内领先成绩,接近国际顶尖模型水平。例如,在 AIME 2025 测试中,准确率由旧版的 70% 提升至 87.5%,平均每题使用 tokens 数从 12K 增加到 23K。

此外,通过蒸馏 DeepSeek-R1-0528 的思维链训练出 Qwen3-8B Base 版本(DeepSeek-R1-0528-Qwen3-8B),该 8B 模型在 AIME 2024 中表现仅次于 DeepSeek-R1-0528,超越 Qwen3-8B。

新版模型针对幻觉问题优化,幻觉率降低 45~50%,改写润色、总结摘要等场景更准确可靠。同时,议论文、小说、散文等文体写作能力得到进一步提升,输出篇幅更长且风格更贴近人类。

工具调用方面,DeepSeek-R1-0528 支持工具调用(不支持在 thinking 中调用)。Tau-Bench 测评中 airline 和 retail 分别达到 53.5% 和 63.9%,与 OpenAI o1-high 相当。

API 方面已同步更新,接口及调用方式保持不变。新增 Function Calling 和 JsonOutput 支持,max_tokens 参数调整为限制单次输出总长度(包括思考过程),默认值为 32K,最大值为 64K。

模型开源信息显示,DeepSeek-R1-0528 使用与 DeepSeek-R1 相同 base 模型,仅改进后训练方法。私有化部署需更新 checkpoint 和 tokenizer_config.json,模型参数为 685B(其中 14B 为 MTP 层),开源版本上下文长度为 128K。

本次更新后,官方渠道提供的模型上下文长度仍为 64K,若需要更长上下文长度,可通过第三方平台调用开源版本 R1-0528 模型。

免责声明:本文内容由开放的智能模型自动生成,仅供参考。

最新文章
Copyright © DoNews 2000-2025 All Rights Reserved
蜀ICP备2024059877号-1