2月13日,DeepSeek网页端及App正在测试一种新的长文本模型结构,支持100万token上下文长度。其现有API服务保持不变,仍为V3.2版本,仅支持128K上下文。
今年1月12日,DeepSeek联合北京大学发布论文《Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models》,梁文锋位列作者名单。该论文提出“条件记忆”概念,旨在解决大语言模型记忆力局限问题。
去年12月1日,DeepSeek同步发布DeepSeek-V3.2与DeepSeek-V3.2-Speciale两个正式版模型。官方网页端、App和API均已更新为V3.2,Speciale版本目前仅以临时API形式向社区开放评测与研究。
DeepSeek-V3.2定位为平衡推理能力与输出长度的通用模型,适用于问答及通用Agent任务。在公开推理类Benchmark测试中,其表现达GPT-5水平,略低于Gemini-3.0-Pro;相比Kimi-K2-Thinking,V3.2输出长度显著缩短,降低计算开销与用户等待时间。
网易有道词典将“deepseek”列为2025年度词汇,年度搜索量达8672940次,搜索曲线呈现明显爆发式增长特征,每次重要进展均引发搜索量跃升。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。



