LLM - LLama 模型读取报错 TypeError: not a string

一.引言

读取 LLama2 模型时报错 TypeError: not a string

看异常栈是 AutoTokenizer.from_pretrained 时候的异常。

二.问题解决

出现类似加载模型异常的问题,大致分两类:

模型地址异常

脚本里传的 pretrained_model Path 有问题,加 ""、'' 或者 / 等标识尝试是否可以正常加载。

模型文件后缀异常

还有一个可能就是模型文件内的后缀出现异常,上述报错由于 tokenizer.model 后缀异常,多了 .model.model 所以加载异常。出现这个问题是由于博主在下载模型保存时不知道怎么多了这个后缀,这里 mv 将文件修改正确即可,顺便把 README 也改对了...

bash 复制代码
mv tokenizer.model.model.model tokenizer.model
mv README.md.md.md README.md

三.总结

这个错误比较基础,出现这个问题检查传的参数和模型的文件名可以很快定位问题。

相关推荐
橘子在努力1 小时前
【橘子大模型】关于PromptTemplate
python·ai·llama
Chaos_Wang_1 天前
NLP高频面试题(三十)——LLama系列模型介绍,包括LLama LLama2和LLama3
人工智能·自然语言处理·llama
艾鹤1 天前
ollama安装与使用
人工智能·llama
清易2 天前
windows大模型llamafactory微调
llama
漠北尘-Gavin3 天前
【Python3.12.9安装llama-cpp-python遇到编译报错问题解决】
python·llama
爱听歌的周童鞋3 天前
理解llama.cpp如何进行LLM推理
llm·llama·llama.cpp·inference
溯源0063 天前
vscode调试python(transformers库的llama为例)
vscode·python·llama
Flying`4 天前
LLaMA-Factory微调实操记录
llama
张飞飞飞飞飞4 天前
通过Llama-Factory对Deepseek-r1:1.5b进行微调
llama
喜欢吃豆5 天前
LLaMA-Factory使用实战
人工智能·大模型·json·llama