2025年12月1日,DeepSeek同时发布两款正式版模型:DeepSeek-V3.2和DeepSeek-V3.2-Speciale,引发行业关注。前者在推理测试中达到GPT-5水平,在智能体评测中表现出色;后者则在四项国际顶级竞赛中斩获金牌,展现了开源模型的强劲实力。
双模型发布,各有千秋
12月1日,DeepSeek同时发布DeepSeek-V3.2和DeepSeek-V3.2-Speciale两个正式版模型。官方网页端、App和API均已更新为正式版DeepSeek-V3.2 ,而Speciale版本目前仅以临时API服务形式开放,以供社区评测与研究,临时API服务截止至北京时间12月15日。两款模型也已在HuggingFace和ModelScope平台开源。
DeepSeek-V3.2:平衡推理与日常应用
DeepSeek-V3.2的目标是平衡推理能力与输出长度,适合如问答场景和通用Agent(智能体)任务场景等日常使用。在公开的推理类Benchmark测试中,它达到了GPT-5的水平,仅略低于Gemini-3.0-Pro;相比Kimi-K2-Thinking,V3.2的输出长度大幅降低,显著减少了计算开销与用户等待时间。此外,它还是首个将思考融入工具使用的模型,同时支持思考模式与非思考模式的工具调用。官方提出一种大规模Agent训练数据合成方法,构造了大量「难解答,易验证」的强化学习任务(1800 + 环境,85,000 + 复杂指令),使该模型在智能体评测中达到当前开源模型的最高水平,大幅缩小开源模型与闭源模型的差距。值得说明的是,V3.2并没有针对这些测试集的工具进行特殊训练,在真实应用场景中具备较强的泛化性。但思考模式未充分适配Cline、RooCode等使用非标准工具调用的组件,官方建议用户在使用此类组件时继续使用非思考模式。
DeepSeek-V3.2-Speciale:探索推理极限
DeepSeek-V3.2-Speciale的目标是将开源模型的推理能力推向极致,它是DeepSeek-V3.2的长思考增强版,同时结合了DeepSeek-Math-V2的定理证明能力。该模型具备出色的指令跟随、严谨的数学证明与逻辑验证能力,在主流推理基准测试上的性能媲美Gemini-3.0-Pro 。更令人瞩目的是,V3.2-Speciale模型获得IMO 2025(国际数学奥林匹克)、CMO 2025(中国数学奥林匹克)、ICPC World Finals 2025(国际大学生程序设计竞赛全球总决赛)及IOI 2025(国际信息学奥林匹克)金牌,其中ICPC与IOI成绩分别达到人类选手第二名与第十名的水平。不过,在高度复杂任务上,Speciale模型虽大幅优于标准版本,但消耗的Tokens也显著更多,成本更高。目前,它仅供研究使用,不支持工具调用,暂未针对日常对话与写作任务进行专项优化。
以上文章由 AI 总结生成

