Subword-Based Tokenization策略之BPE与BBPE

在NLP中,Subword算法用于将单词拆分为更小的语义单元,也就是子词,以解决OOV和数据稀疏性问题。

1、BPE

Byte-Pair Encoding,字节对编码

核心思想**:词频统计,词表合并**

步骤

  1. 初始化词汇表为所有基础字符。

  2. 统计相邻符号对的频率,合并最高频的对。

  3. 重复合并直到达到预设的词汇表大小或迭代次数。

案例:

python 复制代码
语料 = ["low low low", "lower lower", "newest newest", "wider"]

设置迭代次数为2

初始化词汇表:{l,o,w,,e,r,n,s,t,i,d,/w}

统计相邻符号对

low:lo (3) ,ow(3) w</w>(3)

lower:lo (2) ,ow(2) ,we(2),er(2),r</w>(2)

newest:ne(2),ew(2),we(2),es(2),st(2),t</w>(2)

wider:wi(1),id(1),de(1),er(1),r</w>(1)

最高频的对:lo(3+2) ,ow(3+2)

在 BPE(Byte Pair Encoding)算法中,当多个字符对频率相同时,选择哪个先合并,没有唯一标准,但通常采用"字典序优先"或"任意选择"。

这个选择会影响最终的子词单元构成,但影响通常是局部的、有限的,在大规模语料中趋于稳定。

这里选择lo

更新词汇表:{l,o,w,,e,r,n,s,t,i,d,</w>,lo}

得到规则:l + o = lo

进入下一次迭代

第二次统计符号对:

low:low (3) ,w</w>(3)

lower:low(2) ,we(2),er(2),r</w>(2)

newest:ne(2),ew(2),we(2),es(2),st(2),t</w>(2)

wider:wi(1),id(1),de(1),er(1),r</w>(1)

最高频的子词:low(3+2)

更新词汇表:{l,o,w,,e,r,n,s,t,i,d,</w>,lo,low}

得到规则:lo + w = low

结束迭代

得到最终词汇表:{l,o,w,e,r,n,s,t,i,d,</w>,lo,low}

存在的问题
  • 基本词汇表需要包含所有可能的基本字符,可能相当大.

  • 比如所有Unicode中文字符都被视为基本字符的话,有 10w+。

2、BBPE

Byte-Level Byte-Pair Encoding,BPE的字节级扩展版本,主要用于处理多语言 NLP 任务。

BBPE vs. BPE
特性 BPE BBPE
处理单位 字符或子词 字节、UTF-8编码
适用语言 适用于空格分隔语言 适用所有语言
OOV 处理 仍可能遇到OOV 几乎不会有 OOV 问题
存储开销 词表较小 词表较大,但更具泛化能力

工作原理:原理和BPE一致,只是使用字节(byte)作为初始token,适用于任何文本。

案例:

语料:深度学习需要一定的学习深度

预处理

首先将句子转换为UTF-8编码的字节序列,十进制表示:

复制代码
230 183 177 229 186 166 229 173 166 228 185 176 233 156 128 232 166 129 228 184 128 229 174 154 231 154 132 229 173 166 228 185 176 230 183 177 229 186 166
初始化词汇表

初始词汇表为所有唯一的字节 0-255,但此处仅包含语料中出现的字节:

复制代码
{128, 129, 132, 154, 156, 166, 171, 173, 174, 177, 183, 184, 185, 186, 228, 229, 230, 231, 232, 233}
初始分词结果

每个字节单独成词

复制代码
230 183 177 | 229 186 166 | 229 173 166 | 228 185 176 | 233 156 128 | 232 166 129 | 228 184 128 | 229 174 154 | 231 154 132 | 229 173 166 | 228 185 176 | 230 183 177 | 229 186 166
统计字节对频率

遍历所有相邻的字节对,统计出现频率:

字节对 频率
(230, 183) 2
(183, 177) 2
(229, 186) 2
(186, 166) 2
(229, 173) 1
... ...
合并最高频字节对

选择频率最高的字节对进行合并,如 (230, 183)。 合并操作

  • 将 230 \:\: 183 替换为新符号 230\_183。

  • 为该符号新分配一个ID,如 256。

  • 更新词汇表:新增 256 = 230\_183。

  • 此时,我们可以更新分词结果了

    复制代码
    256 177 | 229 186 166 | 229 173 166 | 228 185 176 | 233 156 128 | 232 166 129 | 228 184 128 | 229 174 154 | 231 154 132 | 229 173 166 | 228 185 176 | 256 177 | 229 186 166
迭代合并

重复统计和合并,直到达到预设的合并次数或词汇表大小。

第二次合并

  • 统计当前字节对频率,如 (256, 177) 出现 2 次。

  • 合并 256 \:\: 177 为新符号 257 = 256\_177。

更新后的分词结果:

复制代码
257 | 229 186 166 | 229 173 166 | 228 185 176 | ... | 257 | 229 186 166

第三次合并

  • 合并 (229, 186)。

  • 新符号 258 = 229\_186。

更新后的分词结果:

复制代码
257 | 258 166 | 229 173 166 | 228 185 176 | ... | 257 | 258 166
最终词汇表

经过多次合并后,词汇表会包含初始字节和常见组合:

  • 初始字节:230, 183, 177, 229, 186, ...

  • 合并后的符号:

    • 256 = 230\_183

    • 257 = 256\_177

    • 258 = 229\_186

    • 259 = 258\_166

符号的层级关系

如 257 = 256\_177,而 256 = 230\_183,因此 257 实际表示 230\_183\_177,即完整的"深"的UTF-8字节序列。

编码示例

原始句子编码为:

复制代码
257 259 | 229 173 166 | 228 185 176 | ... | 257 259

其中 257 表示"深",259 表示"度"

当然了,(257, 259) 出现 2 次,下一步合并 (257, 259) → 新符号 260 = 257\_259,即"深度"的完整Token。

所以,这怎么可能会出现 OOV 的问题?

相关推荐
大龄程序员狗哥2 小时前
第47篇:使用Speech-to-Text API快速构建语音应用(操作教程)
人工智能
KKKlucifer2 小时前
数据安全合规自动化:策略落地、审计追溯与风险闭环技术解析
人工智能·安全
RWKV元始智能3 小时前
RWKV超并发项目教程,RWKV-LM训练提速40%
人工智能·rnn·深度学习·自然语言处理·开源
dyj0953 小时前
Dify - (一)、本地部署Dify+聊天助手/Agent
人工智能·docker·容器
墨染天姬3 小时前
【AI】Hermes的GEPA算法
人工智能·算法
小超同学你好3 小时前
OpenClaw 深度解析系列 · 第8篇:Learning & Adaptation(学习与自适应)
人工智能·语言模型·chatgpt
紫微AI3 小时前
前端文本测量成了卡死一切创新的最后瓶颈,pretext实现突破了
前端·人工智能·typescript
码途漫谈3 小时前
Easy-Vibe开发篇阅读笔记(四)——前端开发之结合 Agent Skills 美化界面
人工智能·笔记·ai·开源·ai编程
易连EDI—EasyLink3 小时前
易连EDI–EasyLink实现OCR智能数据采集
网络·人工智能·安全·汽车·ocr·edi
冬奇Lab3 小时前
RAG 系列(二):用 LangChain 搭建你的第一个 RAG Pipeline
人工智能·langchain·llm