字节新推理模型逆袭 DeepSeek,200B 参数战胜 671B,豆包史诗级加强?

字节最新深度思考模型,在数学、代码等多项推理任务中超过 DeepSeek-R1 了?而且参数规模更小。

同样是 MoE 架构,字节新模型 Seed-Thinking-v1.5 有 200B 总参数和 20B 激活参数。

对比 DeepSeek-R1 的 671B 总参数和 37B 激活参数,可以算得上轻量级了。

目前,完整的技术报告已公开发布,其中揭示了诸多秘诀。

字节 Seed 团队聚焦大规模强化学习,并从三个角度提升了推理表现:数据、RL 算法和 RL 基础设施。

可验证与不可验证问题

从数据开始说起,字节团队把 RL 训练数据分为两个部分,具有明确答案的可验证问题 和没有明确答案的不可验证问题,采用不同的奖励建模方法。

这其中,模型的推理能力主要来自可验证问题,并可以推广到不可验证问题。

可验证问题包括问题与答案配对的 STEM 问题、附带单元测试的代码问题,以及适合自动验证的逻辑推理问题(24 点、迷宫、数独等)。

不可验证问题主要包括根据人类偏好评估的非推理任务,如创意写作、翻译、知识 QA、角色扮演等。

对于不可验证问题,字节团队丢弃了样本分数方差低、难度低的数据。此类数据可能过于简单或已在数据集中大量表示。离线实验表明,过度优化此类样本会导致模型的探索空间过早崩溃并降低性能。

此外,团队还打造了全新数学推理评测集 BeyondAIME。

当前的推理模型通常使用 AIME 作为评估数学推理能力的首选基准,但该基准每年只发布 30 个问题,有限的规模可能会导致高方差的评估结果,难以有效区分最先进的推理模型。

字节与数学专家合作,根据既定的比赛形式开发原创问题。通过结构修改和情景重新配置来系统地调整现有的比赛问题,确保不会发生直接重复。此外还确保答案不是容易猜的数值(例如问题陈述中明确提到的数字),以减少模型在没有适当推理的情况下猜出正确答案的机会。

RL 算法

强化学习虽然强大,但训练起来也很不稳定,经常崩溃。

字节在技术报告中提到" 有时,两次运行之间的分数差异可能高达 10 分"。

针对这个问题,团队提出了 VAPO 和 DAPO 两个 RL 框架,分别从基于价值和无价值的 RL 范式出发来稳定训练。

VAPO 和 DAPO 两篇论文都已单独发布。

此外,在 Seed-Thining-v1.5 中,还借鉴了之前学术界工作中的很多关键技术:

  • 价值预训练 (Value-Pretraining),保证价值网络和策略网络一致

  • 解耦的 GAE(Decoupled-GAE),让两个网络更独立高效

  • 长度自适应 GAE(Length-adaptive GAE),更好处理不同长度序列

  • 解耦 PPO 损失 (Clip-Higher),为低概率 token 的增长创造,了更多空间鼓励模型探索新方案

  • Token 级损失 (Token-level Loss),平衡每个 token 对训练过程的影响。

  • 正例增强 (Postive Example LM Loss),提高 RL 训练过程中正样本的利用效率,从而提高模型整体性能

RL 基础设施

在 Long-CoT 生成过程中,字节团队观察到各种提示词之间的响应长度差异较大,在生成过程中出现大量 GPU 空闲时间。

为了缓解长尾响应生成的滞后问题,提出了 SRS(流式 Rollout 系统),一种资源感知型调度框架,可战略性地部署独立的流式计算单元,将系统约束从内存绑定转换为计算绑定。

为了有效地大规模训练,团队还设计了一个混合分布式训练框架,集成高级并行策略、动态工作负载平衡和内存优化:

  • 并行机制:将 TP (张量并行)/EP (专家并行)/CP (上下文并行)与全分片数据并行 (FSDP) 组合在一起,具体来说,将 TP/CP 应用于注意力层,将 EP 应用于 MoE 层。

  • 序列长度平衡:DP 等级之间的有效序列长度可能不平衡,导致计算工作量不平衡和训练效率低下。利用 KARP 算法在一个 mini-batch 内重新排列输入序列,使它们在 micro-batch 之间保持平衡。

  • 内存优化:采用逐层重新计算、激活卸载和优化器卸载来支持更大 micro-batch 的训练,以覆盖 FSDP 引起的通信开销。

  • 自动并行:为了实现最佳系统性能,开发了 AutoTuner 自动调整系统,按照基于配置文件的解决方案 对内存使用情况进行建模。然后估计各种配置的性能和内存使用情况以获得最优配置。

  • 检查点:使用 ByteCheckpoint 支持从不同的分布式配置中以最小的开销恢复检查点,弹性训练以提高集群效率。

最终,在多项自动评估中,Seed-Thinking-v1.5 在 AIME 2024 基准测试中取得 86.7,与 OpenAI 的 o3-mini-high 模型的性能相当。但在最近的 AIME 2025 和 BeyondAIME 中,Seed-Thinking-v1.5 仍然落后于 o3 级别的性能。

对于 GPQA 任务,Seed-Thinking-v1.5 达到 77.3% 的准确率,接近 o3-mini-high 的性能。

在 Codeforces 等代码生成场景中,Seed-Thinking-v1.5 的性能与 Gemini 2.5 Pro 的性能相当,但仍落后于 o3-mini-high。

Seed-Thinking-v1.5 在 SimpleQA 上的表现不太理想。但团队认为,该基准测试预训练模型规模的相关性更强,而不是考验推理能力。

许多人看完这篇技术报告,都很感兴趣,不过找了一圈也没找到模型在哪发布。

从技术报告的口径来看,该模型与目前豆包中的 Doubao-1.5 Pro 并不是一回事。

但从作者名单看,这是由字节 Seed 团队负责人吴永辉带队,主要成员都参与的大项目。

那么是否将来会部署到豆包 APP,可以期待一波了。

论文地址:
github.com/ByteDance-S...

欢迎在评论区留下你的想法!

--- ---

相关推荐
星融元asterfusion2 分钟前
InfiniBand与RoCEv2负载均衡机制的技术梳理与优化实践
人工智能·负载均衡
FreeBuf_4 分钟前
网络安全领域的AI战略准备:从概念到实践
人工智能·安全·web安全
爱的叹息14 分钟前
AI在多Agent协同领域的核心概念、技术方法、应用场景及挑战 的详细解析
人工智能
青橘MATLAB学习34 分钟前
机器学习核心知识:从基础概念到关键算法
人工智能·算法·机器学习·逻辑回归·监督学习·梯度下降法·分类算法
贝塔西塔34 分钟前
生成对抗网络(GAN)原理详解
人工智能·深度学习·生成对抗网络
体育分享_大眼43 分钟前
足球AI模型:一款用数据分析赛事的模型
人工智能·数据挖掘·数据分析
loinleeai1 小时前
【PyTorch】PyTorch中的非线性激活函数详解:原理、优缺点与实战指南
人工智能·pytorch·python·神经网络·目标检测·机器学习·计算机视觉
2401_878624791 小时前
opencv图片颜色识别
人工智能·opencv·计算机视觉
云布道师1 小时前
基于PAI+专属网关+私网连接:构建全链路 Deepseek 云上私有化部署与模型调用架构
人工智能·阿里云·云计算·云布道师
OpenVINO生态社区1 小时前
【机器人创新创业应需明确产品定位与方向指南】
人工智能·机器人