bert模型笔记

1.各预训练模型说明

BERT模型在英文数据集上提供了两种大小的模型,Base和Large。Uncased是意味着输入的词都会转变成小写,cased是意味着输入的词会保存其大写(在命名实体识别等项目上需要)。Multilingual是支持多语言的,最后一个是中文预训练模型。

复制代码
在这里我们选择BERT-Base,Uncased。下载下来之后是一个zip文件,解压后有ckpt文件,一个模型参数的json文件,一个词汇表txt文件。

2.参数错误

复制代码
当输出出现 args = parser.parse_args()标红时,将 args = parser.parse_args() 替换为:args, unknown = parser.parse_known_args()

3.命令行转换模型(tf到pytorch)chinese_L-12_H-768_A-12

复制代码
安装:pip install pytorch-pretrained-bert
解压地址:export BERT_BASE_DIR=/path/to/bert/chinese_L-12_H-768_A-12

(地址拼接)转换模型:pytorch_pretrained_bert convert_tf_checkpoint_to_pytorch BERT_BASE_DIR/bert_model.ckpt BERT_BASE_DIR/bert_config.json $BERT_BASE_DIR/pytorch_model.bin

4.bert模型的标签

复制代码
标签默认为0,1,2...n的方式标注,否则需转换。
相关推荐
GISer_Jing1 小时前
AI自动化工作流:智能驱动未来(升级研究生项目!!!)
人工智能·前端框架·自动化
草捏子1 小时前
Agent Skills:让 AI 一次学会、永远记住的能力扩展方案
人工智能
NocoBase2 小时前
【2.0 教程】第 1 章:认识 NocoBase ,5 分钟跑起来
数据库·人工智能·开源·github·无代码
后端小肥肠2 小时前
OpenClaw实战|从识图到公众号内容自动化,我跑通了完整链路
人工智能·aigc·agent
Elastic 中国社区官方博客2 小时前
快速 vs. 准确:衡量量化向量搜索的召回率
大数据·人工智能·elasticsearch·搜索引擎·ai·全文检索
qq_381338502 小时前
【技术日报】2026-03-18 AI 领域重磅速递
大数据·人工智能
NocoBase2 小时前
开源项目管理工具选型指南(2026年最新)
人工智能·开源·无代码
智者知已应修善业2 小时前
【proteus中lm339电压滞回比较器达到三角波转换成方波】2023-4-13
驱动开发·经验分享·笔记·硬件架构·proteus·硬件工程
feasibility.2 小时前
AI 爬虫高手养成:Openclaw+Scrapling 手动部署 + 采集策略(以Walmart 电商平台为例)
人工智能·爬虫·科技·机器人·agi·openclaw·scrapling
程序员老猫2 小时前
前端菜鸡狂喜!DeepSeek+Gemini,嘴炮出完整博客方案
人工智能