Subword-Based Tokenization策略之BPE与BBPE

在NLP中,Subword算法用于将单词拆分为更小的语义单元,也就是子词,以解决OOV和数据稀疏性问题。

1、BPE

Byte-Pair Encoding,字节对编码

核心思想**:词频统计,词表合并**

步骤

  1. 初始化词汇表为所有基础字符。

  2. 统计相邻符号对的频率,合并最高频的对。

  3. 重复合并直到达到预设的词汇表大小或迭代次数。

案例:

python 复制代码
语料 = ["low low low", "lower lower", "newest newest", "wider"]

设置迭代次数为2

初始化词汇表:{l,o,w,,e,r,n,s,t,i,d,/w}

统计相邻符号对

low:lo (3) ,ow(3) w</w>(3)

lower:lo (2) ,ow(2) ,we(2),er(2),r</w>(2)

newest:ne(2),ew(2),we(2),es(2),st(2),t</w>(2)

wider:wi(1),id(1),de(1),er(1),r</w>(1)

最高频的对:lo(3+2) ,ow(3+2)

在 BPE(Byte Pair Encoding)算法中,当多个字符对频率相同时,选择哪个先合并,没有唯一标准,但通常采用"字典序优先"或"任意选择"。

这个选择会影响最终的子词单元构成,但影响通常是局部的、有限的,在大规模语料中趋于稳定。

这里选择lo

更新词汇表:{l,o,w,,e,r,n,s,t,i,d,</w>,lo}

得到规则:l + o = lo

进入下一次迭代

第二次统计符号对:

low:low (3) ,w</w>(3)

lower:low(2) ,we(2),er(2),r</w>(2)

newest:ne(2),ew(2),we(2),es(2),st(2),t</w>(2)

wider:wi(1),id(1),de(1),er(1),r</w>(1)

最高频的子词:low(3+2)

更新词汇表:{l,o,w,,e,r,n,s,t,i,d,</w>,lo,low}

得到规则:lo + w = low

结束迭代

得到最终词汇表:{l,o,w,e,r,n,s,t,i,d,</w>,lo,low}

存在的问题
  • 基本词汇表需要包含所有可能的基本字符,可能相当大.

  • 比如所有Unicode中文字符都被视为基本字符的话,有 10w+。

2、BBPE

Byte-Level Byte-Pair Encoding,BPE的字节级扩展版本,主要用于处理多语言 NLP 任务。

BBPE vs. BPE
特性 BPE BBPE
处理单位 字符或子词 字节、UTF-8编码
适用语言 适用于空格分隔语言 适用所有语言
OOV 处理 仍可能遇到OOV 几乎不会有 OOV 问题
存储开销 词表较小 词表较大,但更具泛化能力

工作原理:原理和BPE一致,只是使用字节(byte)作为初始token,适用于任何文本。

案例:

语料:深度学习需要一定的学习深度

预处理

首先将句子转换为UTF-8编码的字节序列,十进制表示:

复制代码
230 183 177 229 186 166 229 173 166 228 185 176 233 156 128 232 166 129 228 184 128 229 174 154 231 154 132 229 173 166 228 185 176 230 183 177 229 186 166
初始化词汇表

初始词汇表为所有唯一的字节 0-255,但此处仅包含语料中出现的字节:

复制代码
{128, 129, 132, 154, 156, 166, 171, 173, 174, 177, 183, 184, 185, 186, 228, 229, 230, 231, 232, 233}
初始分词结果

每个字节单独成词

复制代码
230 183 177 | 229 186 166 | 229 173 166 | 228 185 176 | 233 156 128 | 232 166 129 | 228 184 128 | 229 174 154 | 231 154 132 | 229 173 166 | 228 185 176 | 230 183 177 | 229 186 166
统计字节对频率

遍历所有相邻的字节对,统计出现频率:

字节对 频率
(230, 183) 2
(183, 177) 2
(229, 186) 2
(186, 166) 2
(229, 173) 1
... ...
合并最高频字节对

选择频率最高的字节对进行合并,如 (230, 183)。 合并操作

  • 将 230 \:\: 183 替换为新符号 230\_183。

  • 为该符号新分配一个ID,如 256。

  • 更新词汇表:新增 256 = 230\_183。

  • 此时,我们可以更新分词结果了

    复制代码
    256 177 | 229 186 166 | 229 173 166 | 228 185 176 | 233 156 128 | 232 166 129 | 228 184 128 | 229 174 154 | 231 154 132 | 229 173 166 | 228 185 176 | 256 177 | 229 186 166
迭代合并

重复统计和合并,直到达到预设的合并次数或词汇表大小。

第二次合并

  • 统计当前字节对频率,如 (256, 177) 出现 2 次。

  • 合并 256 \:\: 177 为新符号 257 = 256\_177。

更新后的分词结果:

复制代码
257 | 229 186 166 | 229 173 166 | 228 185 176 | ... | 257 | 229 186 166

第三次合并

  • 合并 (229, 186)。

  • 新符号 258 = 229\_186。

更新后的分词结果:

复制代码
257 | 258 166 | 229 173 166 | 228 185 176 | ... | 257 | 258 166
最终词汇表

经过多次合并后,词汇表会包含初始字节和常见组合:

  • 初始字节:230, 183, 177, 229, 186, ...

  • 合并后的符号:

    • 256 = 230\_183

    • 257 = 256\_177

    • 258 = 229\_186

    • 259 = 258\_166

符号的层级关系

如 257 = 256\_177,而 256 = 230\_183,因此 257 实际表示 230\_183\_177,即完整的"深"的UTF-8字节序列。

编码示例

原始句子编码为:

复制代码
257 259 | 229 173 166 | 228 185 176 | ... | 257 259

其中 257 表示"深",259 表示"度"

当然了,(257, 259) 出现 2 次,下一步合并 (257, 259) → 新符号 260 = 257\_259,即"深度"的完整Token。

所以,这怎么可能会出现 OOV 的问题?

相关推荐
罗西的思考1 分钟前
【OpenClaw】通过 Nanobot 源码学习架构---(5)Context
人工智能·算法·机器学习
2301_7644413313 分钟前
claw-code:基于Claude Code架构的clean-room重写开源项目
人工智能·架构·开源
模拟器连接器曾工1 小时前
CCD定位与图像辨别的智能视觉检测系统
人工智能·计算机视觉·视觉检测·智能视觉检测系统
云栖梦泽1 小时前
AI安全合规与治理:行业发展趋势与职业展望
大数据·人工智能·安全
小陈工1 小时前
2026年4月2日技术资讯洞察:数据库融合革命、端侧AI突破与脑机接口产业化
开发语言·前端·数据库·人工智能·python·安全
happyprince2 小时前
2026年04月07日热门模型
人工智能
IT_陈寒2 小时前
Vue的这个响应式问题,坑了我整整两小时
前端·人工智能·后端
HIT_Weston2 小时前
41、【Agent】【OpenCode】本地代理分析(五)
javascript·人工智能·opencode
万添裁2 小时前
pytorch的张量数据结构以及各种操作函数的底层原理
人工智能·pytorch·python