[论文阅读]Text Compression for Efficient Language Generation

Text Compression for Efficient Language Generation

[2503.11426] Text Compression for Efficient Language Generation

NAACL 2025

提出了"Generative Pretrained Thoughtformer"(GPTHF),这是一个分层 transformer 语言模型,它能够通过将文本压缩成句子嵌入并采用句子注意力机制来进行文本生成(将句子压缩成一个固定大小的嵌入并采用句子级注意力来生成文本,对GPT的修改很小)。 GPTHF 保留了 GPT 的架构,仅通过动态稀疏注意力掩码修改 token 交互。

这项工作没有压缩固定大小的 token 组,而是将一个句子------语言中具有更高语义价值的单元------压缩成一个嵌入。作者专注于利用这些嵌入来提高计算效率,而不是嵌入本身。

方法

架构

GPTHF 模型由两个主要组件组成:一个词级 Transformer 编码器 (wlt_encoder) 和一个句子级 Transformer 主体 (slt_body)。 编码器将每个句子压缩成一个单独的嵌入,同时保留基本信息。 slt_body 对这些句子嵌入进行上下文处理并生成下一个 token 预测。

预训练

使用自动回归模型中常见的下一个 Token 预测目标。 为了在启用有效的并行训练的同时,为 Token 预测准备GPTHF,再次采用专门的注意性掩码(图4)。 目标是序列中的下一个 Token (图3)

训练语料库包含了 OpenWebText、维基百科和 ArXiv。使用标准的GPT-2 Token ,继承了其词汇大小和未知单词的处理,同时引入了"EOS" Token 。 这个 Token 对于快速生成方法的设计至关重要,这是这项工作的基石。

使用 Adam 优化器,权重衰减为 0.01,β1=0.9,β2=0.98 和 ϵ=10−8.

保持梯度裁剪,值为 0.5。

学习率调度器使用线性衰减并进行 10000 步的预热

批次大小调度器,起始批次大小为 64,并线性增加到 4096,在训练持续时间的 60% 时达到峰值。

在训练期间消除了 dropout。

模型在预训练语料库上只进行一次或更少的传递,这降低了过拟合的风险。

快速生成

【感觉上是一句话有对应的emb,常规的生成token并不会影响先前已有句子的emb,因此在更新emb的时候效率得到了提高】

实验

使用验证困惑度和效率指标(FLOPs 和运行时)评估 GPTHF 与大小相当的 GPT 风格基线。

训练数据限制为 100 亿个 token,分为 320'000 个大小为 64 的微批次步骤,上下文大小为 512 个 token。 所有模型都在相同的数据集上进行预训练。

基线:训练了一个名为"Baseline-12"的 12 层基线和一个名为"Baseline-24"的 24 层基线,它们与 GPTHF 对应物具有相同的架构和大小。 唯一的区别是与图4中的掩码相反,它们使用用于编码器和主体的完整三角掩码进行训练。

困惑度

GPTHF-16-8 和 12 层基线模型的表现相当,为进一步比较奠定了基础:如果 GPTHF-16-8 实现了比 12 层 GPT 更高的生成效率和/或速度,那么训练一个能够压缩的更大模型可能是值得的。

FLOPs

快速生成算法的加速度取决于跨句子的 Token 分布,而不是仅输入的形状。 直观地说,更多句子通过缓存已完成的句子来跳过编码器。

效率增益随着提示长度的增加而增加。

平均句子数(x 轴)与效率提升(y 轴)的散点图。效率提升与平均句子数线性相关。对于批处理数据,效率提升较低,这可能是由于 token 的多样性较大(从增加的方差可以看出),导致处理了更多的 padding token,从而减慢了快速生成算法的速度。

推理时间

随着上下文增加,加速比也会增加。

综合来看,核心贡献是以句子为基准进行划分,只修改最后一句话在添加新的生成token后的emb,前面句子的emb不做变化。也对encoder的作用区域进行了精简。

对我来说用处不大,简单了解即可。

相关推荐
传说故事4 小时前
【论文阅读】See Once, Then Act:基于单次视频演示任务学习的VLA模型
论文阅读·人工智能·具身智能·vla
Julyers4 小时前
【论文阅读】Line-Mod算法
论文阅读·人工智能
薛定e的猫咪14 天前
【AAAI 2025】基于扩散模型的昂贵多目标贝叶斯优化
论文阅读·人工智能·算法
YMWM_14 天前
论文阅读“SimVLA: A Simple VLA Baseline for Robotic Manipulation“
论文阅读·vla
m0_6501082414 天前
VLN-Zero:零样本机器人导航的神经符号视觉语言规划框架
论文阅读·零样本·机器人导航·视觉语言导航·未知环境快速适配·符号化场景图·vlm推理
晓山清15 天前
【论文阅读】Self-supervised Learning of Person-specific Facial Dynamics for APR
论文阅读
张较瘦_15 天前
[论文阅读] AI + 教育 | 不是单纯看视频!软件工程培训的游戏化融合之道
论文阅读·人工智能·软件工程
张较瘦_15 天前
[论文阅读] AI + 软件工程 | 用统计置信度破解AI功能正确性评估难题——SCFC方法详解
论文阅读·人工智能·软件工程
Matrix_1116 天前
论文阅读--Agent AI 探索多模态交互的前沿领域(二)
论文阅读·人工智能
万里鹏程转瞬至16 天前
论文简读 | TurboDiffusion: Accelerating Video Diffusion Models by 100–200 Times
论文阅读·深度学习·aigc