
「【新智元导读】「开源之神」DeepSeek 重磅发布 V3.2 正式版,性能全面超越 GPT-5 High,与谷歌 Gemini-3.0 Pro 平分秋色。新模型不仅斩获 4 项国际奥赛金牌级成绩,更凭借独创的 DSA 稀疏注意力架构,打破「速度、成本、智能」的不可能三角。」
OpenAI 这次真的要慌了!
就在刚刚,「源神」DeepSeek 开源了 DeepSeek-V3.2 正式版------
在数学编程等多项推理基准上,全面超越 GPT-5 High,优于 Claude 4.5 Sonet;
与刷屏的 Gemini 3.0 Pro 相比,则难分伯仲,不相上下!

表 1:DeepSeek-V3.2 与其他模型在各类数学、代码与通用领域评测集上的得分(括号内为消耗 Tokens 估计总量)
在今年,DeepSeek 此前已发布 7 款模型------「开源之神」,当之无愧:
DeepSeek‑R1、DeepSeek‑R1‑Zero
DeepSeek‑V3、DeepSeek‑V3.1、DeepSeek‑V3.1-Terminus、DeepSeek‑V3.2‑Exp
DeepSeek‑OCR、DeepSeek‑Math-V2

「出手即王炸」
「开源 4 项奥赛金牌级 AI」
全新模型 DeepSeek-V3.2,出手即王炸。
DeepSeek 正式发布 DeepSeek-V3.2 与 DeepSeek-V3.2-Speciale------专为智能体打造的推理优先模型!
- DeepSeek-V3.2:V3.2-Exp 的官方迭代版本,现已登陆 App、网页端及 API;
- DeepSeek-V3.2-Speciale:突破推理能力边界,目前仅通过 API 提供服务。

两款模型均达到世界级推理性能 :
- V3.2:推理能力与文本长度兼顾,拥有 GPT-5 级别性能,适合日常驱动;
- V3.2-Speciale:极致推理能力,取得了 4 项金牌级成绩;目前仅提供 API 版本(不支持工具调用),以支持社区评估与研究。
「在主流推理基准测试上,DeepSeek-V3.2-Speciale」 的性能表现媲美 Gemini-3.0-Pro(见表 1)。
更令人瞩目的是,V3.2-Speciale 模型**「成功斩获多项金牌:」**
- 「IMO 2025(国际数学奥林匹克)」
- 「CMO 2025(中国数学奥林匹克)」
- 「ICPC World Finals 2025(国际大学生程序设计竞赛全球总决赛)」
- 「IOI 2025(国际信息学奥林匹克)」
其中,ICPC 与 IOI 成绩分别达到了人类选手第二名与第十名的水平。
而 DeepSeek-V3.2 是首个将思考直接整合到工具使用中的模型,同时支持在思考和非思考模式下使用工具。
目前,两款模型均已开源:
· DeepSeek-V3.2
HuggingFace:huggingface.co/deepseek-ai...
DeepSeek-V3.2
ModelScope:modelscope.cn/models/deep...
· DeepSeek-V3.2-Speciale
HuggingFace:huggingface.co/deepseek-ai...
ModelScope:modelscope.cn/models/deep...

「从「引擎验证」到「全能车手」」
「DeepSeek V3.2 的进化论」
如果说两个月前发布的 DeepSeek-V3.2-Exp 是一台在赛道上呼啸而过的「概念车」,用来向世界证明「稀疏注意力」引擎的动力潜力;
那么今天正式转正的 DeepSeek V3.2,则是一辆完成了内饰精修、装配了顶级导航系统、可以随时上路解决复杂问题的「量产超跑」。
这就是 DeepSeek V3.2 相比于 Exp 版(实验版)最大的进化逻辑:「核心引擎不变,但驾驶技巧(Agent 能力)发生了质变。」


「V3.2 正式版 vs. Exp」
「学会了「边干边想」」
在架构层面,V3.2 沿用了 Exp 版本验证成功的 DSA 架构,但在「软实力」上,DeepSeek 解决了一个困扰 AI 界的顽疾------「思考与行动的断裂」。
在 V3.2-Exp 时期(以及其他大多数推理模型),模型像是一个记性不好的老学究:它会先花很长时间思考,决定调用一个工具(比如搜索天气)。
但当工具把「今天是雨天」的结果扔回来时,它往往会「断片儿」,忘了刚才思考到哪一步了,不得不重新规划。
V3.2 正式版引入了「思维上下文管理」。

这就像给模型装了一个「工作记忆暂存区」。
现在的 V3.2 像一位经验丰富的外科医生,在伸手要手术刀(调用工具)的间隙,脑子里的手术方案依然清晰连贯,拿到刀后能无缝衔接下一步操作。
为了练就这项绝活,DeepSeek 甚至为 V3.2 搭建了一个「虚拟演练场」。
他们合成了 1800 多个虚拟的操作系统、代码库和浏览器环境,生成了 8.5 万条极其刁钻的指令,逼着 V3.2 在虚拟世界里反复练习「修 Bug」、「查资料」、「做报表」。
正是这种高强度的特训,让 V3.2 正式版从一个只会做题的「做题家」,进化成了能熟练使用工具解决现实难题的「实干家」。

「最大技术亮点」
「给注意力装上「闪电索引器」」
V3.2 能够同时兼顾「聪明」和「便宜」,其最大的功臣依然是那个名为稀疏注意力(DSA)的底层黑科技。

DeepSeek-V3.2 的注意力架构
要理解它的牛逼之处,我们得先看看传统模型有多「笨」。
传统模型在处理长文档时,就像一个强迫症晚期的图书管理员:
为了回答你一个简单的问题,它强迫自己**「必须把图书馆里每一本书的每一页、每一行字都读一遍」**,并计算它们之间的关联。
这导致计算量随着书的厚度呈指数级爆炸(O(L^2))。
DSA 则给这位管理员配备了一套「闪电索引器」。
当问题来临时,DSA 先用极低的成本扫描一遍「索引」,瞬间判断出哪几页书可能包含答案,把无关的 99% 的废话直接扔掉。
然后,它只对这筛选出的 1% 的关键内容进行精细的深度阅读。
这种「查目录」而非「死磕全书」的策略,将计算复杂度从可怕的指数级直接拉低到了近乎线性(O(L))。

「带来的显著提升」
「打破「不可能三角」」
DSA 技术的成功落地,直接击穿了 AI 领域的「速度、成本、智能」不可能三角。

其一,成本腰斩,长文无忧。
对于用户来说,丢给模型一本几十万字的小说或代码库,不再是「烧钱」的奢侈行为,处理速度也从「泡杯咖啡」变成了「眨眼之间」。
其二,算力盈余带来的「智力涌现」,这是最精彩的一点。
正因为 DSA 节省了大量算力,DeepSeek 才有底气推出那个恐怖的 Speciale 版本。
既然读得快,那就让它想得久一点!
Speciale 版本利用节省下来的资源,进行更深度的「长思考」和逻辑推演。
结果是震撼的:DeepSeek-V3.2-Speciale 在数学(IMO 金牌)、编程(IOI 金牌)等硬核指标上,不仅超越了 GPT-5 High,更是与谷歌最强的 Gemini 3.0 Pro 战成平手。

从验证 DSA 引擎潜力的 V3.2-Exp,到将 Agent 能力、思维上下文管理、虚拟演练场训练全部装车的 V3.2 正式版,DeepSeek 展示的是另一条通往强智能的路线:在算力紧箍咒下,用更聪明的架构、更精细的训练和更开放的生态,撬动推理极限。
「DeepSeek-V3.2 的横空出世,正是 DeepSeek 开源」 「AI」 「的魅力时刻:拒绝无脑烧钱 Scaling,靠更聪明的 「「算法」 」,在算力的缝隙中开辟出通往顶峰的捷径。」
参考资料: