神经推理的蜕变:从概率解码到 DeepSeek V3.2 的理性智能体架构演进

摘要

大型语言模型(Large Language Models, LLMs)的发展历程,长期以来被"下一个预测词"(Next Token Prediction)的范式所主导。这一机制虽然在语言生成的流畅性上取得了显著成就,但也引致了关于模型本质的激烈争论------即其是否仅为缺乏深层逻辑的"随机鹦鹉"(Stochastic Parrots)。随着 DeepSeek V3.2 及其衍生变体(如 DeepSeek-V3.2-Speciale)的发布,这一范式正在经历一场根本性的重构。DeepSeek V3.2 通过引入"系统 2"(System 2)推理机制,将计算资源的重心从预训练阶段的知识压缩,转移到了推理阶段的实时计算(Inference-Time Compute)。本文旨在对 DeepSeek V3.2 的解码策略进行详尽的解构与分析,重点探讨其核心技术突破:DeepSeek 稀疏注意力机制(DSA)、基于强化学习的思维链内化(GRPO)、以及"工具使用中的思考"(Thinking in Tool-Use)范式。分析表明,DeepSeek V3.2 的解码过程不再是简单的概率最大化,而是一个包含规划、执行、观察与反思的完整认知循环,标志着人工智能从文本生成器向理性智能体的跨越式演进。

1. 绪论:双重系统理论与神经解码的范式转移

在认知心理学中,丹尼尔·卡尼曼(Daniel Kahneman)提出的双重过程理论(Dual Process Theory)将人类思维划分为两个系统:系统 1(System 1)负责快速、直觉且无意识的处理,而系统 2(System 2)则负责慢速、深思熟虑且逻辑严密的推理。传统的 Transformer 解码策略,无论是贪婪搜索(Greedy Search)、集束搜索(Beam Search)还是核采样(Nucleus Sampling),本质上都属于"系统 1"的模拟。它们依赖于模型在预训练阶段习得的统计相关性,试图在毫秒级的时间内预测出下一个"最合理"的词元(Token)。这种机制在处理开放域闲聊或简单知识检索时表现优异,但在面对复杂的数学证明、代码调试或多步逻辑推理时,往往因缺乏回溯和自我修正能力而陷入"幻觉"或逻辑断裂。

DeepSeek V3.2 的出现,代表了 LLM 解码策略向"系统 2"的决定性迈进。这种演进的核心在于引入了"推理时计算"(Inference-Time Compute)的概念。不同于以往模型仅依赖参数量(模型大小)和训练数据量(Pre-training Compute)来提升性能,DeepSeek V3.2 证明了在推理阶段通过生成长思维链(Chain-of-Thought, CoT)来消耗更多的计算资源,可以显著提升模型在复杂任务上的表现 1。

1.1 从贪婪解码到隐式搜索

在传统的解码过程中,模型的目标是最大化序列的联合概率 P(Y\|X)。然而,贪婪解码往往陷入局部最优,且无法纠正早期的错误生成。DeepSeek V3.2 通过强化学习(RL)训练,改变了解码的内在动力学。模型不再仅仅追求下一个词的概率最大化,而是被训练去生成一个能够导致正确答案的"思维轨迹"。这一过程可以被视为一种隐式的、内在的树搜索算法(类似于蒙特卡洛树搜索 MCTS),模型在生成的思维链中进行假设、验证、甚至回溯,从而在解码空间中寻找全局最优解 2。

1.2 DeepSeek V3.2 的解码特征概览

与 OpenAI 的 o1 系列模型类似,DeepSeek V3.2 强调推理过程的重要性,但其解码架构展现出了独特的技术路线和开源生态的适应性:

  • 显性思维流(Explicit Reasoning Stream): 不同于封闭模型的隐藏思维,DeepSeek V3.2 将解码输出明确划分为 reasoning_content(推理内容)和 content(最终内容),使得解码过程透明化、可监控 4。
  • 稀疏注意力支撑的长上下文(DSA-Enabled Long Context): 推理过程本身极其消耗上下文窗口,DSA 技术使得维持数万 token 的推理过程在经济上成为可能 6。
  • 工具与思维的融合(Thinking in Tool-Use): 打破了"思考-行动"的二元对立,实现了在调用外部工具期间保持思维连贯性的解码能力 8。

2. 架构基石:DeepSeek 稀疏注意力(DSA)对长程解码的赋能

要理解 DeepSeek V3.2 的解码特色,首先必须剖析其底层的架构创新。系统 2 推理的一个显著特征是"冗长"------为了解决一个复杂的奥数问题,模型可能需要生成数千甚至数万个中间推理 Token。在标准的 Transformer 架构中,自注意力机制(Self-Attention)的计算复杂度随序列长度呈二次方增长 O(L\^2)。这意味着,随着推理过程的深入,解码的计算成本和显存占用将呈指数级上升,导致推理延迟(Latency)不仅不可接受,甚至可能导致显存溢出(OOM)。DeepSeek V3.2 引入的 DeepSeek 稀疏注意力(DSA) 机制,是其能够进行长程推理的物理基础。

2.1 动态稀疏索引机制(Lightning Indexer)

DSA 的核心思想并非简单地截断上下文,而是通过一种智能的索引机制来动态选择关注对象。DeepSeek 引入了"闪电索引器"(Lightning Indexer),这是一个轻量级的注意力模块,其计算复杂度极低。在解码的每一步,闪电索引器首先计算当前查询 Token(Query)与历史键值(Key)之间的粗粒度相关性分数 I_{t,s} 10。

这一过程利用了 FP8(8位浮点数)低精度计算来最大化吞吐量。索引器并不执行完整的注意力计算,而是作为一个筛选器,快速识别出在那一时刻对当前推理步骤最关键的 k 个 Token 块。这种机制将注意力的核心计算复杂度从 O(L\^2) 降低到了 O(Lk),其中 k 是一个远小于 L 的常数 6。

对解码策略的深层影响:

  • 推理深度的解放: 由于解码成本不再随长度剧烈增加,DeepSeek V3.2 可以在解码策略上不再受限于"长度惩罚"(Length Penalty)。模型被允许(甚至被鼓励)进行极深度的思考,生成漫长的推理轨迹,而不必担心耗尽计算预算或触碰硬件瓶颈。
  • 信息检索的精准度: 在长程解码中,模型容易出现"迷失在中间"(Lost in the Middle)的现象。DSA 通过动态索引,确保了即使在数万 Token 之后的解码步骤中,模型依然能够精准地"回忆"起初始 Prompt 中的关键约束条件或早期的推理结论,这对于保持逻辑的一致性至关重要 13。

2.2 多头潜在注意力(MLA)与 KV 缓存压缩

DeepSeek V3.2 继承并优化了 DeepSeek-V2 中的 多头潜在注意力(Multi-head Latent Attention, MLA)。在推理阶段,LLM 的一大瓶颈是键值缓存(KV Cache)占用的显存。对于一个进行系统 2 推理的模型,其生成的每一个思维 Token 都需要被存储在 KV Cache 中,以便后续 Token 进行关注。

MLA 通过低秩压缩技术,显著减少了 KV Cache 的显存占用。这使得 DeepSeek V3.2 能够在有限的显存资源下(如单张 H800 或消费级显卡集群),支持高达 128K 的上下文窗口 11。对于解码而言,这意味着"工作记忆"(Working Memory)的极大扩展。模型可以在解码过程中维持极其复杂的中间状态,例如在编写代码时同时保留需求文档、当前代码库结构以及之前的调试尝试记录,从而实现更连贯的生成。

表 1:DeepSeek V3.2 架构对解码特性的影响

架构特性 技术原理 对解码策略的影响
DeepSeek Sparse Attention (DSA) 细粒度动态索引,复杂度 O(Lk) 允许生成极长的思维链(CoT),降低长程推理的延迟惩罚。
Multi-head Latent Attention (MLA) KV Cache 低秩压缩 扩大"工作记忆"容量,支持在推理过程中维持大量上下文信息。
Mixture-of-Experts (MoE) 动态路由,仅激活部分参数(37B/671B) 提升解码速度,允许针对不同类型的推理步骤(如数学 vs 语言)调用特定专家。

3. 双流解码与"思维模式"的内在逻辑

DeepSeek V3.2 的解码输出结构发生了根本性的变化,这不仅是 API 格式的调整,更是模型内部处理逻辑的外化。模型在生成最终答案之前,会先输出一段被标记为 reasoning_content 的内容。这一机制不仅仅是"解释",它是模型进行状态搜索和优化的过程。

3.1 显性思维流的解耦与监控

传统的思维链(CoT)通常作为 Prompt 工程的一部分,或者混杂在最终输出中。DeepSeek V3.2 在 API 层面将 reasoning_content 与 content 进行了物理上的解耦 4。

  • 顺序依赖性: 解码器首先生成推理流。在这个阶段,模型处于"探索模式"。它会分解问题、设立假设、推演步骤。
  • 条件生成: 最终的 content 是严格基于 reasoning_content 生成的。这意味着,最终答案的质量完全取决于推理流的质量。
  • 不可见性与可见性的权衡: 与 OpenAI o1 隐藏思维链不同,DeepSeek 选择公开这一过程。这为开发者和研究人员提供了一个独特的窗口,可以观察模型的"元认知"过程------即模型是如何发现自己的错误并进行纠正的。

3.2 拒绝采样的确定性偏好

在"系统 2"解码模式下,DeepSeek V3.2 表现出对确定性的强烈偏好。传统的 LLM 生成通常依赖较高的温度(Temperature > 0.7)来增加创造性。然而,DeepSeek 的文档明确指出,在开启思维模式(Thinking Mode)时,参数如 temperature、top_p 和 presence_penalty 往往会被忽略或设置为极低值 4。

这种解码策略的深层逻辑在于:

  1. 逻辑的唯一性: 推理过程是一条严密的逻辑链条,任何一步的随机扰动都可能导致"蝴蝶效应",使后续的推理偏离正确轨道。因此,贪婪解码(Greedy Decoding)或低温度采样在推理流中是必须的。
  2. 内在的探索: 模型不再依赖外部的采样随机性来探索不同的解,而是通过内在的思维过程来模拟探索。例如,模型可能会在 reasoning_content 中生成:"尝试方法 A... 发现矛盾... 现在尝试方法 B"。这种"试错"过程被内化到了确定性的解码序列中,而非通过生成多个不同的样本来实现 16。

3.3 训练数据对解码风格的塑造

DeepSeek V3.2 的解码风格------详尽、自我反思、步骤化------是其训练数据的直接反映。DeepSeek 构建了一个大规模的 Agentic Task Synthesis Pipeline,生成了超过 1800 个不同的环境和 85,000 个复杂指令 6。这些合成数据包含了大量的"正确推理路径"和"错误修正路径"。

通过 Group Relative Policy Optimization (GRPO) 算法,模型在后训练阶段(Post-Training)被强化,以生成那些能够最大化最终答案正确率的推理路径 19。这意味着,DeepSeek V3.2 的解码策略实际上是对"如何思考最有效"这一问题的最优解的近似。模型学到了一种策略:在面对复杂问题时,花费更多的 Token 进行详细规划和自我检查,其获得正向奖励(正确解题)的概率更高。

4. 工具使用中的思考(Thinking in Tool-Use):解码的闭环

DeepSeek V3.2 在解码领域最具革命性的特色之一,是实现了"工具使用中的思考"(Thinking in Tool-Use)。在上一代模型(如早期的 R1 或其他 Agent 模型)中,思维链通常在调用工具(Tool Call)的一刹那被打断。模型在收到工具返回结果后,往往会"忘记"之前的推理上下文,导致逻辑断裂。V3.2 通过持久化推理上下文,彻底改变了这一局面。

4.1 状态保持与"思考-行动-反思"循环

在 DeepSeek V3.2 的解码流程中,推理轨迹被视为一个连续的状态流,即使在中间插入了外部工具的调用和返回,这一状态流也不会丢失 8。

详细的解码循环如下:

  1. 规划(Plan): 模型开始生成 reasoning_content,分析用户意图,识别所需信息,并决定调用哪个工具。解码器此时处于"高熵"状态,探索多种可能的工具组合。
  2. 行动(Act): 模型生成特定的工具调用 Token(如 JSON 格式的函数调用)。此时,解码暂停,控制权移交给外部系统(Executor)。
  3. 观察(Observe): 外部系统执行工具(如运行 Python 代码、查询数据库),并将结果返回给模型。
  4. 反思(Reflect): 这是 V3.2 的核心特色。 模型接收到工具输出后,继续 生成 reasoning_content。它不仅看到了结果,还结合了调用工具之前的推理上下文。模型会评估结果是否符合预期,如果结果报错,它会生成分析错误的思维链(例如:"错误提示参数缺失,我需要重新检查函数定义..."),然后发起新的调用 21。

4.2 错误恢复的解码特征

通过分析 DeepSeek V3.2 在复杂任务(如数据分析、代码调试)中的解码日志,可以观察到一种显著的"自我纠错"模式。当工具调用失败时,模型不会像传统 LLM 那样倾向于编造一个假结果(Hallucination)来掩盖错误,或者是直接崩溃。

相反,V3.2 的解码策略会进入一个"调试子程序":

  • 特征一: 推理流中出现大量的条件判断词汇("如果"、"但是"、"分析错误原因")。
  • 特征二: 模型会利用工具返回的 Error Message 作为新的 Prompt 输入,进行针对性的重试。
  • 特征三: 这种恢复能力是通过大量的合成负样本训练出来的。DeepSeek 在训练数据中故意注入了工具故障的场景,迫使模型在解码策略中习得鲁棒性 21。

这种机制将模型从一个静态的文本生成器,转变为一个具有动态适应能力的智能体。解码不再是一条直线,而是一个可以在遇到障碍时自动绕行的复杂轨迹。

5. 分歧的演进:V3.2-Base 与 V3.2-Speciale 的解码差异

DeepSeek V3.2 并非单一模型,而是一个包含不同特化版本的模型家族。其中,标准版(V3.2-Base/Thinking)与特化版(V3.2-Speciale)在解码目标和策略上展现出了显著的分歧,这种分歧反映了"通用性"与"深度理性"之间的权衡。

5.1 DeepSeek V3.2-Speciale:纯粹理性的解码引擎

DeepSeek-V3.2-Speciale 是该系列中最为激进的版本,专门为极高难度的推理任务(如国际数学奥林匹克 IMO、信息学奥林匹克 IOI)而设计 6。

其解码特色具有极端的"纯粹性":

  • 剥离工具支持: Speciale 版本被特意设计为不支持工具调用 6。这种设计决策迫使模型完全依赖内部的知识库和逻辑推理能力来解决问题。解码器不需要在"思考"和"调用外部函数"之间做权衡,而是将所有的计算预算都投入到深度的逻辑推演中。
  • 无约束的推理深度: Speciale 的解码策略倾向于生成极长的思维链。在处理数学证明时,它可能会生成数万个 Token 的推导过程,涵盖多个引理的证明和反证法的尝试。这种"深度优先"的搜索策略,使其在封闭域的高难度逻辑题上超越了 GPT-5 和 Gemini 3.0 Pro 6。
  • 格式的自由化: 与标准版严格遵守 JSON 输出格式不同,Speciale 的输出往往是自由文本。它优先考虑逻辑的正确表达,而不是输出的结构化。这使得它不适合作为 API 的结构化数据提取器,但却是完美的"数学家助手" 23。

5.2 DeepSeek V3.2-Base:平衡的实用主义者

相比之下,标准版 V3.2 则采用了更为平衡的解码策略。

  • 解码约束: 它在进行推理的同时,时刻受到"指令遵循"(Instruction Following)的约束。解码器必须在"思考"之后,准确地切换回特定的输出格式(如 JSON、Markdown)。
  • 应用场景: 这种策略使其成为构建 Agent、RAG 系统和日常编码助手的理想选择。它牺牲了部分极限推理深度,换取了与现有软件生态的完美兼容性 4。

表 2:V3.2-Base 与 V3.2-Speciale 解码特征对比

特征维度 DeepSeek V3.2 (Base) DeepSeek V3.2-Speciale
核心解码目标 任务完成度、工具交互、格式合规 逻辑正确性、推理深度、极限解题
工具调用能力 原生支持,具备"工具中思考"能力 不支持(纯内生推理)
输出格式 结构化强(JSON/Schema),易于解析 自由文本,结构松散,重内容轻形式
推理链长度 适中,受限于交互延迟容忍度 极长,为求正解不惜消耗大量计算
典型应用 企业级 Agent、代码生成、RAG 数学竞赛、算法竞赛、复杂逻辑论证

6. 解码策略的训练内化:GRPO 与知识蒸馏

DeepSeek V3.2 的解码特性并非仅由 Prompt 工程(如"请一步步思考")激发,而是通过深度的后训练(Post-Training)被内化到模型的权重之中。这一过程主要依赖于 群组相对策略优化(Group Relative Policy Optimization, GRPO)专家蒸馏(Specialist Distillation)

6.1 GRPO:将搜索算法内化为生成策略

传统的强化学习方法(如 PPO)通常需要一个与策略模型同等大小的价值模型(Critic Model)来评估每一步的收益,这带来了巨大的显存开销。DeepSeek 采用的 GRPO 摒弃了独立的 Critic 模型 19。

GRPO 的工作机制及其对解码的影响:

  1. 群组采样(Group Sampling): 对于每一个输入 q,GRPO 会让旧策略 \\pi_{old} 生成一组输出 \\{o_1, o_2,..., o_G\\}
  2. 相对优势计算: 算法不计算绝对奖励,而是计算每个输出相对于该组平均水平的优势。
  3. 解码策略的重塑: 这种训练方式实际上是在模拟"Best-of-N"采样过程。通过奖励那些表现优于平均水平的轨迹,模型逐渐学会了直接生成那些原本需要通过多次采样和筛选才能得到的高质量推理路径。换言之,外部的搜索和筛选过程被"内化"成了模型的直觉解码策略 21。

6.2 专家模型的蒸馏:特定域解码风格的迁移

DeepSeek 的训练管线采用了"专家 \\to 通用"的蒸馏策略。研究团队首先针对特定领域(数学、代码、逻辑)训练了极其强大的专家模型(Specialist Models),这些模型在各自的领域内具有极强的推理能力,但可能缺乏通用性。

随后,这些专家的推理能力被蒸馏到 DeepSeek V3.2 的通用模型中 7。这意味着,当 V3.2 遇到一个数学问题时,它的解码分布会瞬间"切换"到数学专家的模式,展现出严谨、形式化的推理风格;而遇到代码问题时,则切换到编程专家的调试风格。这种动态的风格切换,是 DeepSeek V3.2 能够在单一模型中兼顾多种任务表现的关键。

7. 比较视野:DeepSeek V3.2 与行业前沿的解码博弈

将 DeepSeek V3.2 置于全球 LLM 发展的坐标系中,可以更清晰地看到其解码策略的独特性。与 OpenAI 的 o1 和传统的 Best-of-N 方法相比,DeepSeek 走出了一条"开源、透明、高效"的道路。

7.1 与 OpenAI o1 的透明度之争

OpenAI 的 o1 模型同样采用系统 2 推理,但其推理过程是隐蔽的(Hidden Chain of Thought)。用户只能看到最终结果,无法审查模型的思考逻辑。

DeepSeek V3.2 选择了一条完全透明的路线。其解码出的 reasoning_content 是完全可见的 2。

  • 可解释性优势: 这种透明度使得开发者可以确切地知道模型是在哪一步推理出错的,从而进行针对性的 Prompt 优化或逻辑修正。
  • 信任机制: 在金融、医疗等高风险领域,能够看到模型的"思考过程"是建立信任的关键。DeepSeek 的显性解码策略使其在这些领域的应用潜力巨大。

7.2 内在推理 vs. 外部 Best-of-N

Best-of-N 是一种通过生成 N 个答案并利用验证器(Verifier)选择最佳答案的策略。虽然有效,但它在推理阶段的计算成本是线性的 N 倍。

DeepSeek V3.2 的目标是通过 GRPO 训练,让模型在单次解码(Pass@1)中就能达到甚至超过 Best-of-N 的效果 16。

  • 效率对比: 在推理阶段,V3.2 的单次长思维链生成,往往比生成 100 个短答案并进行筛选要高效得多。因为模型可以在思维链内部进行"剪枝",一旦发现某条思路不通,立即在内部回溯,而不需要完整生成一个错误的答案。这种"串行化的内部搜索"比"并行化的外部搜索"具有更高的 Token 效率 17。

8. 工程实践与部署:驾驭 V3.2 的解码特性

在实际部署 DeepSeek V3.2 时,工程师必须针对其独特的解码特性进行适配。这不再是简单的 model.generate(),而是涉及到推理引擎的深度配置。

8.1 vLLM 与张量并行的适配

由于 DeepSeek V3.2 采用了 MoE 和 DSA 架构,主流推理框架 vLLM 对其进行了专门的优化。

  • 特殊的分词器配置: 部署时需指定 --tokenizer-mode deepseek_v32,以确保推理引擎能够正确处理 reasoning_content 的特殊标记 27。
  • 参数禁忌: 在使用 V3.2-Speciale 或启用思维模式时,通常建议将 best_of 参数设置为 1,并禁用 Beam Search。因为模型的推理能力已经内化在贪婪解码或低温采样中,外部的 Beam Search 不仅增加延迟,还可能破坏模型内在的逻辑连贯性 28。
  • 上下文长度的硬件挑战: 尽管 DSA 降低了计算复杂度,但 128K 的上下文依然对显存容量提出了挑战。利用 MLA 技术,DeepSeek 在 H800 等硬件上实现了惊人的吞吐量,但在消费级显卡上部署仍需依赖量化技术(如 AWQ/GPTQ)21。

8.2 安全性解码的"精神分裂"

DeepSeek V3.2 的解码存在一个有趣的"双重人格"现象,被称为"内在终止开关"(Intrinsic Kill Switch)。在处理敏感话题时,模型的 reasoning_content 可能会进行客观、中立甚至详细的分析,但当解码进入 content 阶段时,模型会突然输出标准的拒绝回答(Refusal Response)30。

这表明 DeepSeek 的安全对齐(Safety Alignment)主要作用于最终输出层,而并没有完全抹除模型内部的知识和推理能力。对于研究人员来说,这种现象揭示了 LLM "知道但不能说"的深层机制。

结论:理性智能体的黎明

DeepSeek V3.2 的发布,标志着 LLM 从"概率预测"向"理性计算"的范式转移已成定局。通过 DeepSeek 稀疏注意力(DSA) 解决长程推理的算力瓶颈,通过 GRPO 将搜索算法内化为解码策略,并由 Thinking in Tool-Use 实现知行合一的智能循环,DeepSeek V3.2 成功构建了一个具备系统 2 思维能力的开源智能体。

这种演进不仅提升了模型在数学、代码等硬核任务上的表现,更重要的是,它重新定义了人机交互的边界。未来的 LLM 不再仅仅是一个只会说话的百科全书,而是一个能够像人类工程师一样,面对复杂问题进行规划、试错、使用工具并最终交付可靠结果的理性合作者。DeepSeek V3.2 的解码特色,正是这一未来图景的底层代码。

数据来源索引

引用的著作

  1. Automating GPU Kernel Generation with DeepSeek-R1 and Inference Time Scaling, 访问时间为 十二月 13, 2025, https://developer.nvidia.com/blog/automating-gpu-kernel-generation-with-deepseek-r1-and-inference-time-scaling/
  2. DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning - arXiv, 访问时间为 十二月 13, 2025, https://arxiv.org/pdf/2501.12948
  3. What did DeepSeek figure out about reasoning with DeepSeek-R1? - Sean Goedecke, 访问时间为 十二月 13, 2025, https://www.seangoedecke.com/deepseek-r1/
  4. DeepSeek-V3.2 Release, 访问时间为 十二月 13, 2025, https://api-docs.deepseek.com/news/news251201
  5. Thinking Mode | DeepSeek API Docs, 访问时间为 十二月 13, 2025, https://api-docs.deepseek.com/guides/thinking_mode
  6. deepseek-ai/DeepSeek-V3.2-Speciale - Hugging Face, 访问时间为 十二月 13, 2025, https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Speciale
  7. New research: How They Built GPT-5-Level DeepSeek-V3.2 Reasoning on a Budget, 访问时间为 十二月 13, 2025, https://www.reddit.com/r/DeepSeek/comments/1pdb832/new_research_how_they_built_gpt5level_deepseekv32/
  8. The strongest open-source model yet! "Outperforming GPT-5" and "surpassing Gemini 3.0," why has DeepSeek V3.2 improved so significantly?, 访问时间为 十二月 13, 2025, https://news.futunn.com/en/post/65631731/the-strongest-open-source-model-yet-outperforming-gpt-5-and
  9. DeepSeek V3.2: Open-Source Reasoning at Gold Medal Level | E2E Networks, 访问时间为 十二月 13, 2025, https://www.e2enetworks.com/blog/deepseek-v3-2-open-source-reasoning
  10. Paper page - DeepSeek-V3.2: Pushing the Frontier of Open Large ..., 访问时间为 十二月 13, 2025, https://huggingface.co/papers/2512.02556
  11. deepseek-ai/DeepSeek-V3 - Hugging Face, 访问时间为 十二月 13, 2025, https://huggingface.co/deepseek-ai/DeepSeek-V3
  12. DeepSeek Researchers Introduce DeepSeek-V3.2 and DeepSeek-V3.2-Speciale for Long Context Reasoning and Agentic Workloads - MarkTechPost, 访问时间为 十二月 13, 2025, https://www.marktechpost.com/2025/12/01/deepseek-researchers-introduce-deepseek-v3-2-and-deepseek-v3-2-speciale-for-long-context-reasoning-and-agentic-workloads/
  13. How DeepSeek V3.2's New Attention Makes Long Contexts Cheap - Medium, 访问时间为 十二月 13, 2025, https://medium.com/data-science-in-your-pocket/how-deepseek-v3-2s-new-attention-makes-long-contexts-cheap-46b3747d98a7
  14. deepseek-ai/DeepSeek-V3.2-Exp - Hugging Face, 访问时间为 十二月 13, 2025, https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Exp
  15. Reasoning Beyond Limits: Advances and Open Problems for LLMs - arXiv, 访问时间为 十二月 13, 2025, https://arxiv.org/html/2503.22732v1
  16. When to Continue Thinking: Adaptive Thinking Mode Switching for Efficient Reasoning - ACL Anthology, 访问时间为 十二月 13, 2025, https://aclanthology.org/2025.findings-emnlp.310.pdf
  17. Daily Papers - Hugging Face, 访问时间为 十二月 13, 2025, https://huggingface.co/papers?q=thinking%20language%20models
  18. 2512.02556\] DeepSeek-V3.2: Pushing the Frontier of Open Large Language Models - arXiv, 访问时间为 十二月 13, 2025,

  19. Understanding the Math Behind GRPO --- DeepSeek-R1-Zero | by Yugen.ai - Medium, 访问时间为 十二月 13, 2025, https://medium.com/yugen-ai-technology-blog/understanding-the-math-behind-grpo-deepseek-r1-zero-9fb15e103a0a
  20. DeepSeek-V3.2: Pushing the Frontier of Open Large Language Models - arXiv, 访问时间为 十二月 13, 2025, https://arxiv.org/html/2512.02556v1
  21. How Do LLMs Fail In Agentic Scenarios? A Qualitative Analysis of Success and Failure Scenarios of Various LLMs in Agentic Simulations - arXiv, 访问时间为 十二月 13, 2025, https://arxiv.org/html/2512.07497v2
  22. DeepSeek v3.2 Speciale vs Thinking | by Mehul Gupta | Data Science in Your Pocket, 访问时间为 十二月 13, 2025, https://medium.com/data-science-in-your-pocket/deepseek-v3-2-speciale-vs-thinking-3572886ef0b1
  23. Reinforcement Learning from Human Feedback - arXiv, 访问时间为 十二月 13, 2025, https://arxiv.org/html/2504.12501v3
  24. Dynamic Early Exit in Reasoning Models - arXiv, 访问时间为 十二月 13, 2025, https://arxiv.org/html/2504.15895v1
  25. The Price of a Second Thought: On the Evaluation of Reasoning Efficiency in Large Language Models - arXiv, 访问时间为 十二月 13, 2025, https://arxiv.org/html/2505.22017v2
  26. DeepSeek-V3.2 Usage Guide - vLLM Recipes, 访问时间为 十二月 13, 2025, https://docs.vllm.ai/projects/recipes/en/latest/DeepSeek/DeepSeek-V3_2.html
  27. MaaS Standard API V1 - ModelArts - 华为云, 访问时间为 十二月 13, 2025, https://support.huaweicloud.com/intl/en-us/usermanual-maas-modelarts/maas-modelarts-0078.html
  28. Releases · vllm-project/vllm - GitHub, 访问时间为 十二月 13, 2025, https://github.com/vllm-project/vllm/releases
  29. DeepSeek Ultimate Capabilities Cheatsheet - AI Mindset, 访问时间为 十二月 13, 2025, https://www.ai-mindset.ai/deepseek-cheatsheet
  30. DeepSeek 3.2 vs DeepSeek 3.1 (Terminus): Model Comparison & Upgrade Guide (2025), 访问时间为 十二月 13, 2025, https://skywork.ai/blog/deepseek-3-2-vs-3-1-terminus-comparison-2025/
  31. DeepSeek V3.2 Speciale dominates my math bench while being ~15× cheaper than GPT-5.1 High, 访问时间为 十二月 13, 2025, https://www.reddit.com/r/LocalLLaMA/comments/1pcia1t/deepseek_v32_speciale_dominates_my_math_bench/
  32. Lessons on reproducing R1-like reasoning in small LLMs | Red Hat Developer, 访问时间为 十二月 13, 2025, https://developers.redhat.com/articles/2025/02/25/lessons-reproducing-r1-reasoning-small-llms
  33. DeepSeek v3 and R1 Model Architecture: Why it's powerful and economical - Fireworks AI, 访问时间为 十二月 13, 2025, https://fireworks.ai/blog/deepseek-model-architecture
  34. The Complete Guide to DeepSeek Models: V3, R1, V3.1, V3.2 and Beyond - BentoML, 访问时间为 十二月 13, 2025, https://www.bentoml.com/blog/the-complete-guide-to-deepseek-models-from-v3-to-r1-and-beyond
  35. DeepSeek-V3.2 (Thinking) vs o1-preview - LLM Stats, 访问时间为 十二月 13, 2025, https://llm-stats.com/models/compare/deepseek-reasoner-vs-o1-preview
  36. DeepSeek V3.2 Exp vs o1-pro (Comparative Analysis) - Galaxy.ai Blog, 访问时间为 十二月 13, 2025, https://blog.galaxy.ai/compare/deepseek-v3-2-exp-vs-o1-pro
  37. Fast SceneScript: Accurate and Efficient Structured Language Model via Multi-Token Prediction - arXiv, 访问时间为 十二月 13, 2025, https://arxiv.org/html/2512.05597v1
  38. Release Notes for NVIDIA NIM for LLMs, 访问时间为 十二月 13, 2025, https://docs.nvidia.com/nim/large-language-models/latest/release-notes.html