bert模型笔记

1.各预训练模型说明

BERT模型在英文数据集上提供了两种大小的模型,Base和Large。Uncased是意味着输入的词都会转变成小写,cased是意味着输入的词会保存其大写(在命名实体识别等项目上需要)。Multilingual是支持多语言的,最后一个是中文预训练模型。

在这里我们选择BERT-Base,Uncased。下载下来之后是一个zip文件,解压后有ckpt文件,一个模型参数的json文件,一个词汇表txt文件。

2.参数错误

当输出出现 args = parser.parse_args()标红时,将 args = parser.parse_args() 替换为:args, unknown = parser.parse_known_args()

3.命令行转换模型(tf到pytorch)chinese_L-12_H-768_A-12

安装:pip install pytorch-pretrained-bert
解压地址:export BERT_BASE_DIR=/path/to/bert/chinese_L-12_H-768_A-12

(地址拼接)转换模型:pytorch_pretrained_bert convert_tf_checkpoint_to_pytorch $BERT_BASE_DIR/bert_model.ckpt $BERT_BASE_DIR/bert_config.json $BERT_BASE_DIR/pytorch_model.bin

4.bert模型的标签

标签默认为0,1,2...n的方式标注,否则需转换。
相关推荐
碣石潇湘无限路26 分钟前
【AI】基于扩散方案的大语言模型研究报告
人工智能·语言模型·自然语言处理
EasyCVR31 分钟前
EasyRTC嵌入式音视频通话SDK:基于ICE与STUN/TURN的实时音视频通信解决方案
人工智能·音视频·webrtc·实时音视频·h.265
非优秀程序员38 分钟前
使用Python给自己网站生成llms.txt
人工智能·后端·架构
二川bro40 分钟前
AI 人工智能深度解析:从基础到前沿,全面掌握未来科技
人工智能·科技
非优秀程序员1 小时前
人工智能时代,如何让你的网站更好被大模型收录,获得新的自然流量并成为互联网的信息来源
人工智能·机器学习·架构
Dipeak数巅科技1 小时前
数巅科技携手智慧足迹深耕行业大模型应用
大数据·人工智能·商业智能bi
AI34561 小时前
AI壁纸进阶宝典:让创作效率与质量飞速提升的法门
人工智能
好看资源平台1 小时前
手写识别革命:Manus AI如何攻克多语言混合识别难题(二)
开发语言·人工智能·php
Otto_10271 小时前
crewai框架出现SSLError
人工智能·crewai·多智能体协作·智能体协作
橙哥分享1 小时前
AI编程创新
人工智能·ai编程