bert-base-uncased使用

1.下载模型

https://github.com/google-research/bert?tab=readme-ov-file

2.下载config.json和pytorch_model.bin

https://huggingface.co/google-bert/bert-base-uncased/tree/main

3.解压缩到同一文件夹

4.代码测试

复制代码
from transformers import BertModel,BertTokenizer

BERT_PATH = 'D:/bert/241109'

tokenizer = BertTokenizer.from_pretrained(BERT_PATH)

print(tokenizer.tokenize('I have an apple, thank you.'))

bert = BertModel.from_pretrained(BERT_PATH)

print('load bert model over')
相关推荐
黑不拉几的小白兔几秒前
risc-V学习日记(4):RV32I指令集
学习·risc-v
冷水鱼4 分钟前
docker部署MinerU web api
人工智能
一点.点7 分钟前
简单分析自动驾驶发展现状与挑战
人工智能·自动驾驶
山重水复疑无路@7 分钟前
NVIDIA --- 端到端自动驾驶
人工智能·机器学习·自动驾驶
春眠不觉晓♞14 分钟前
使用多线程快速向Excel中快速插入一万条数据案例
java·学习·excel
落樱弥城17 分钟前
光流法:从传统方法到深度学习方法
人工智能·深度学习
乙真仙人27 分钟前
从困局到破局的AI+数据分析
人工智能·数据挖掘·数据分析
量子位32 分钟前
阿里 Qwen3 问鼎开源王座!8 款模型全面开放,最大杯全方位超越 R1/o1,网友:让开源再次伟大
人工智能·开源·通义灵码
量子位32 分钟前
普通人也能用上超级智能体!实测 100+MCP 工具随便选,撰写报告 / 爬虫小红书效果惊艳
人工智能·mcp
酱酱们的每日掘金32 分钟前
用了 Trae 后,感觉离京东外卖不远了、Cursor 的系统级提示词逆向、前端也需要了解的 mcp 知识-AI Coding 周刊第 6 期
人工智能·ai编程·trae