bert模型笔记

1.各预训练模型说明

BERT模型在英文数据集上提供了两种大小的模型,Base和Large。Uncased是意味着输入的词都会转变成小写,cased是意味着输入的词会保存其大写(在命名实体识别等项目上需要)。Multilingual是支持多语言的,最后一个是中文预训练模型。

复制代码
在这里我们选择BERT-Base,Uncased。下载下来之后是一个zip文件,解压后有ckpt文件,一个模型参数的json文件,一个词汇表txt文件。

2.参数错误

复制代码
当输出出现 args = parser.parse_args()标红时,将 args = parser.parse_args() 替换为:args, unknown = parser.parse_known_args()

3.命令行转换模型(tf到pytorch)chinese_L-12_H-768_A-12

复制代码
安装:pip install pytorch-pretrained-bert
解压地址:export BERT_BASE_DIR=/path/to/bert/chinese_L-12_H-768_A-12

(地址拼接)转换模型:pytorch_pretrained_bert convert_tf_checkpoint_to_pytorch BERT_BASE_DIR/bert_model.ckpt BERT_BASE_DIR/bert_config.json $BERT_BASE_DIR/pytorch_model.bin

4.bert模型的标签

复制代码
标签默认为0,1,2...n的方式标注,否则需转换。
相关推荐
玄明Hanko1 分钟前
AI 界的圣经!互联网女皇发布340页年度重磅AI趋势报告
人工智能·aigc
czy87874751 分钟前
正点原子lwIP协议的学习笔记
笔记·网络协议·学习·tcp/ip
huangyuchi.1 分钟前
【Linux】自动化构建-Make/Makefile
linux·运维·服务器·笔记·自动化·makefile·make
硬核隔壁老王2 分钟前
从零开始搭建RAG系统系列(四):⽂档向量化与索引构建
人工智能·程序员·llm
XMAIPC_Robot9 分钟前
基于RK3576+FPGA+AI工业控制器的工地防护检测装备解决方案
人工智能·fpga开发
rocksun10 分钟前
MCP是AI的RSS:模型上下文协议的更多用例
人工智能·mcp
LiuYaoheng10 分钟前
【JVM】Java类加载机制
java·jvm·笔记·学习
陈奕昆11 分钟前
4.1 HarmonyOS NEXT原生AI能力集成:盘古大模型端侧部署与多模态交互实战
人工智能·交互·harmonyos
用户8009135524414 分钟前
中文Embedding模型归一化层缺失?一次text2vec-base-chinese-sentence的踩坑与修复实录
人工智能
南方kenny20 分钟前
微信红包算法设计:从随机到公平的技术实现
前端·人工智能