字节Seed发布扩散语言模型,推理速度达2146 tokens/s,比同规模自回归快5.4倍

扩散模型写代码,不仅像开了倍速,改起来还特别灵活!

字节Seed最新发布扩散语言模型Seed Diffusion Preview,这款模型主要聚焦于代码生成领域,它的特别之处在于采用了离散状态扩散技术,在推理速度上表现出色。

它的代码推理速度能达到2146 tokens/s,比同类的Mercury和Gemini Diffusion等模型快不少,同时比同等规模的自回归模型快5.4倍,并且在代码编辑任务中更具优势。

Seed Diffusion Preview以结构化的代码生成为实验领域,系统性地验证离散扩散技术路线作为下一代语言模型基础框架的可行性。

下面介绍它的具体技术细节。

核心是两阶段训练学习

自回归模型存在串行解码延迟瓶颈,理论上,扩散模型的并行生成潜力和整体性生成的优势可以解决自回归模型推理速度局限这一痛点。

但理论优势与实际效果还是有差距,离散扩散模型在语言任务中的大规模部署仍面临两大核心瓶颈:归纳偏置冲突和推理效率瓶颈。

为解决上述问题,Seed Diffusion Preview采用了四项关键的技术创新。

两阶段训练

两阶段训练是模型的核心训练策略。

这是针对离散扩散过程设计的渐进式训练方案,两个阶段分别采用不同的corruption过程(即对原始数据的扰动方式)。通过分阶段优化模型对token的理解与生成能力,平衡训练效率与生成质量。

第一个阶段是基于掩码的扩散训练,学习上下文补全,占整个训练步骤的80%。

目标是将原始序列中的token替换为特殊的[MASK]标记,让模型学习从部分被掩盖的序列中恢复原始token,以此奠定基础的语言建模能力。

第二个阶段是基于编辑的扩散训练,增强全局的合理性。

掩码训练可能带来"捷径依赖"的问题------优先利用未掩码token的局部关联性进行恢复,而非理解整个序列的全局逻辑。

此阶段的目标就是通过插入、删除、替换等编辑操作对原始序列进行扰动,并用编辑距离衡量扰动程度,编辑次数由特定函数控制在合理范围内,打破模型对未掩码token的错误认知,迫使模型重新评估所有token。

实证表明,引入编辑阶段后,模型在代码修复基准CanItEdit上的pass@1对比自回归模型(AR模型)提升了4.8%(54.3vs.50.5),明显增强了模型的代码逻辑理解与修复能力。

Seed Diffusion Preview的测试结果验证了了离散扩散路线在大语言模型推理上的潜力。

相关推荐
重整旗鼓~23 分钟前
3.会话功能-AiServices工具类
java·语言模型·langchain
无心水23 分钟前
【Python实战进阶】4、Python字典与集合深度解析
开发语言·人工智能·python·python字典·python集合·python实战进阶·python工业化实战进阶
励志成为糕手34 分钟前
循环神经网络(RNN):时序数据的深度学习模型
人工智能·rnn·深度学习·gru·lstm
前端开发工程师请求出战37 分钟前
Advanced RAG实战:评估闭环与持续优化体系
人工智能·全栈
Nturmoils37 分钟前
基于Rokid CXR-M SDK实现AR智能助手应用:让AI大模型走进AR眼镜
人工智能·aigc
java_logo1 小时前
LobeHub Docker 容器化部署指南
运维·人工智能·docker·ai·容器·ai编程·ai写作
清云逸仙1 小时前
AI Prompt应用实战:评论审核系统实现
人工智能·经验分享·ai·语言模型·prompt·ai编程
正宗咸豆花1 小时前
Prompt Minder:重塑 AI 时代的提示词工程基础设施
人工智能·prompt
清云逸仙2 小时前
使用AI(GPT-4)实现AI prompt 应用--自动审核评论系统
人工智能·经验分享·ai·语言模型·ai编程
图灵信徒2 小时前
R语言第七章线性回归模型
数据挖掘·数据分析·r语言·线性回归