bert模型笔记

1.各预训练模型说明

BERT模型在英文数据集上提供了两种大小的模型,Base和Large。Uncased是意味着输入的词都会转变成小写,cased是意味着输入的词会保存其大写(在命名实体识别等项目上需要)。Multilingual是支持多语言的,最后一个是中文预训练模型。

复制代码
在这里我们选择BERT-Base,Uncased。下载下来之后是一个zip文件,解压后有ckpt文件,一个模型参数的json文件,一个词汇表txt文件。

2.参数错误

复制代码
当输出出现 args = parser.parse_args()标红时,将 args = parser.parse_args() 替换为:args, unknown = parser.parse_known_args()

3.命令行转换模型(tf到pytorch)chinese_L-12_H-768_A-12

复制代码
安装:pip install pytorch-pretrained-bert
解压地址:export BERT_BASE_DIR=/path/to/bert/chinese_L-12_H-768_A-12

(地址拼接)转换模型:pytorch_pretrained_bert convert_tf_checkpoint_to_pytorch BERT_BASE_DIR/bert_model.ckpt BERT_BASE_DIR/bert_config.json $BERT_BASE_DIR/pytorch_model.bin

4.bert模型的标签

复制代码
标签默认为0,1,2...n的方式标注,否则需转换。
相关推荐
Coder_Boy_2 小时前
基于Spring AI的分布式在线考试系统-事件处理架构实现方案
人工智能·spring boot·分布式·spring
凯尔萨厮2 小时前
Maven(Windows下载安装)
笔记·maven
wdfk_prog2 小时前
[Linux]学习笔记系列 -- [drivers][input]serio
linux·笔记·学习
Light602 小时前
智链未来:彭山物流园区从物理基建到数据智能体的全维度构建方案
人工智能·系统架构·数字孪生·智慧物流·实施路径·彭山项目
AI资源库2 小时前
GLM-4.7-Flash模型深入解析
人工智能·语言模型
一切尽在,你来2 小时前
1.2 LangChain 1.2.7 版本核心特性与升级点
人工智能·langchain
LYFlied2 小时前
AI大时代下前端跨端解决方案的现状与演进路径
前端·人工智能
深蓝电商API2 小时前
图片验证码识别:pytesseract+opencv入门
人工智能·opencv·计算机视觉·pytesseract
.Katherine௰2 小时前
AI数字人模拟面试机器人
人工智能
光影少年2 小时前
AI 前端 / 高级前端
前端·人工智能·状态模式