BERT tokenizer 增加全角标点符号

bert 的词表,哪怕是 bert-base-chinese,对中文全角标点的支持不是很好

py 复制代码
from transformers import BertTokenizerFast

tokenizer = BertTokenizerFast.from_pretrained('models/bert-base-chinese')
tokenizer.tokenize("小明说:"你是厕所大灯笼------找'屎'。"我无语了......")
"""
['小',
 '明',
 '说',
 ':',
 '[UNK]',
 '你',
 '是',
 '厕',
 '所',
 '大',
 '灯',
 '笼',
 '[UNK]',
 '[UNK]',
 '找',
 '[UNK]',
 '屎',
 '[UNK]',
 '。',
 '[UNK]',
 '我',
 '无',
 '语',
 '了',
 '[UNK]',
 '[UNK]']
"""

因此在微调bert时,需要在vocab.txt 文件里把这些标点加上。直接替换 [unused] token 即可

复制代码
[PAD]
...
---
"
"
'
'
[unused7]
[unused8]
[unused9]
[unused10]
...
相关推荐
Danceful_YJ16 小时前
35.微调BERT
人工智能·深度学习·bert
Danceful_YJ2 天前
34.来自Transformers的双向编码器表示(BERT)
人工智能·深度学习·bert
少林码僧5 天前
2.3 Transformer 变体与扩展:BERT、GPT 与多模态模型
人工智能·gpt·ai·大模型·bert·transformer·1024程序员节
c0d1ng7 天前
自建督学习——BERT(第二十二周周报)
人工智能·学习·bert
hans汉斯10 天前
【计算机科学与应用】基于BERT与DeepSeek大模型的智能舆论监控系统设计
大数据·人工智能·深度学习·算法·自然语言处理·bert·去噪
赴33517 天前
自然语言处理框架:Bert和Transformer
自然语言处理·bert·transformer
Ellenjing19 天前
从 Transformer 理论到文本分类:BERT 微调实战总结
分类·bert·transformer
X.AI66619 天前
YouTube评论情感分析项目84%正确率:基于BERT的实战复现与原理解析
人工智能·深度学习·bert
AI新兵22 天前
AI大事记13:GPT 与 BERT 的范式之争(上)
人工智能·gpt·bert
deephub23 天前
深入BERT内核:用数学解密掩码语言模型的工作原理
人工智能·深度学习·语言模型·bert·transformer