bert-base-uncased使用

1.下载模型

https://github.com/google-research/bert?tab=readme-ov-file

2.下载config.json和pytorch_model.bin

https://huggingface.co/google-bert/bert-base-uncased/tree/main

3.解压缩到同一文件夹

4.代码测试

复制代码
from transformers import BertModel,BertTokenizer

BERT_PATH = 'D:/bert/241109'

tokenizer = BertTokenizer.from_pretrained(BERT_PATH)

print(tokenizer.tokenize('I have an apple, thank you.'))

bert = BertModel.from_pretrained(BERT_PATH)

print('load bert model over')
相关推荐
二向箔reverse几秒前
机器学习算法核心总结
人工智能·算法·机器学习
dundunmm22 分钟前
【论文阅读】SIMBA: single-cell embedding along with features(2)
论文阅读·人工智能·embedding·生物信息·单细胞·多组学·细胞类型识别
金井PRATHAMA44 分钟前
意象框架:连接感知与认知的统一信息结构分析——基于上古汉语同源词意义系统的词源学与认知语言学探索
人工智能·自然语言处理
聚客AI1 小时前
🧠深度解析模型压缩革命:减枝、量化、知识蒸馏
人工智能·深度学习·llm
南猿北者1 小时前
Cmake学习笔记
笔记·学习·策略模式
SHIPKING3931 小时前
【机器学习&深度学习】Ollama、vLLM、LMDeploy对比:选择适合你的 LLM 推理框架
人工智能·深度学习·机器学习
zzywxc7871 小时前
AI 行业应用:金融、医疗、教育、制造业领域的落地案例与技术实现
android·前端·人工智能·chrome·金融·rxjava
新智元1 小时前
刚刚,GPT-5 Pro 自证全新数学定理!OpenAI 总裁直呼颠覆,大佬们集体转发
人工智能·openai
新智元2 小时前
28 岁华人执掌 1.85 万亿科技巨头 AI 大权!一觉醒来,图灵奖得主也要向他汇报
人工智能·openai
居然JuRan2 小时前
从LoRA到QLoRA再到全量微调
人工智能