【大模型】分词粒度

如何理解分词粒度?

分词粒度是一种要从哪种角度进行分词的;可以包括字符级(character level)、单词级(word level)、子词级(sub-word level)、(字节级(byte level));(很难说字节级应该被认为是一种技巧还是一种分词粒度)

例如对于一句话:This is the Hugging Face Course.,
字符级分词会按照单个字符进行分词,对于上面这段文本,可以分割为:

python 复制代码
['T', 'h', 'i', 's', 't', 'e', 'H', 'u', 'g', 'n', 'F', 'a', 'c', 'C', 'o', 'u', 'r', '.']

如果不区分大小写的话(bert-base-uncased是一个不区分大小写的分词器):会先将原文本全部变为小写:This is the Hugging Face Course.->this is the hugging face course.

python 复制代码
['t', 'h', 'i', 's', 'e', 'u', 'g', 'n', 'f', 'a', 'c', 'o', 'u', 'r', '.']

对于中文而言,以你好,这是一篇关于分词粒度的博客!为例,则会被分割为:

python 复制代码
['你', '好', '这', '是', '一', '篇', '关', '于', '分', '词', '粒', '度', '的', '博', '客']

单词级分词则会按照词进行分词,这种方法对于英文而言十分方便简单:

python 复制代码
['This', 'is', 'Hugging', 'Face', 'Course', '.']

如果按照句子中的空格进行分词,['This', 'is', 'Hugging', 'Face', 'Course.']

中文使用词汇级的分词器似乎并不是很多,似乎也不是很合适。
子词级分词按照词的子词进行分词,类似于利用词根词缀来进行分词。

python 复制代码
['This', 'is', 'the', 'Hu', '##gging', 'Face', 'Course', '.']

中文也有对应的子词级的分词,仍然是上述的文本:

python 复制代码
['你好', ',', '这', '是一', '篇', '关于', '分', '词', '粒', '度', '的', '博客', '!']

(中文分词来自于Qwen2.5

拿房子举个例子叭,尽管不一定贴切;有一个房子,我们可以将房子拆分为厨房、卧室、客厅、卫生间...,这是一种粒度;可以继续拆分为砖、水泥,玻璃...,这又是一种更细的粒度;砖、水泥、玻璃都可以被继续分解为沙子、泥等;这还是一种粒度,因此,房子到底是由什么组成的,取决于从哪种粒度上进行分析。
什么是字符? 字符可以理解文本数据中最小的组成部分。

字符可以是:

字母:AB

数字:01

标点符号:!?

特殊符号:@#

空格、换行等控制字符;

汉字:

等等

相关推荐
SmartBrain5 天前
DeerFlow 实践:华为IPD流程的评审智能体设计
人工智能·语言模型·架构
JoannaJuanCV5 天前
大语言模型基石:Transformer
人工智能·语言模型·transformer
大千AI助手5 天前
TruthfulQA:衡量语言模型真实性的基准
人工智能·语言模型·自然语言处理·llm·模型评估·truthfulqa·事实性基准
张较瘦_5 天前
[论文阅读] 人工智能 + 软件工程 | 大语言模型驱动的多来源漏洞影响库识别研究解析
论文阅读·人工智能·语言模型
什么都想学的阿超5 天前
【大语言模型 58】分布式文件系统:训练数据高效存储
人工智能·语言模型·自然语言处理
J_Xiong01175 天前
【VLMs篇】07:Open-Qwen2VL:在学术资源上对完全开放的多模态大语言模型进行计算高效的预训练
人工智能·语言模型·自然语言处理
艾醒(AiXing-w)5 天前
探索大语言模型(LLM):Ollama快速安装部署及使用(含Linux环境下离线安装)
linux·人工智能·语言模型
这张生成的图像能检测吗5 天前
(综述)视觉任务的视觉语言模型
人工智能·计算机视觉·语言模型·自然语言处理·视觉语言模型
semantist@语校5 天前
第二十篇|SAMU教育学院的教育数据剖析:制度阈值、能力矩阵与升学网络
大数据·数据库·人工智能·百度·语言模型·矩阵·prompt
fanstuck6 天前
Prompt提示工程上手指南(六):AI避免“幻觉”(Hallucination)策略下的Prompt
人工智能·语言模型·自然语言处理·nlp·prompt