LLM - LLama 模型读取报错 TypeError: not a string

一.引言

读取 LLama2 模型时报错 TypeError: not a string

看异常栈是 AutoTokenizer.from_pretrained 时候的异常。

二.问题解决

出现类似加载模型异常的问题,大致分两类:

模型地址异常

脚本里传的 pretrained_model Path 有问题,加 ""、'' 或者 / 等标识尝试是否可以正常加载。

模型文件后缀异常

还有一个可能就是模型文件内的后缀出现异常,上述报错由于 tokenizer.model 后缀异常,多了 .model.model 所以加载异常。出现这个问题是由于博主在下载模型保存时不知道怎么多了这个后缀,这里 mv 将文件修改正确即可,顺便把 README 也改对了...

bash 复制代码
mv tokenizer.model.model.model tokenizer.model
mv README.md.md.md README.md

三.总结

这个错误比较基础,出现这个问题检查传的参数和模型的文件名可以很快定位问题。

相关推荐
黑贝是条狗3 天前
llama编译封装了一个最小翻译模型400M
llama
决战灬3 天前
LlamaIndex 之 get_response_synthesizer(一)
llama
倔强的胖蚂蚁4 天前
主流大模型使用指南:Gemma/Llama 全流程
云原生·llama
shen121386 天前
使用 llama.cpp + MTP 分支实现 1.5 倍 Token 输出加速实战指南
llama·qwen3.6-27b
xingyuzhisuan6 天前
适合微调Llama 3 70B模型的最低GPU配置推荐
运维·人工智能·算法·llama·gpu算力
Karry_6667 天前
本地Ollama安装部署
llama
挪不动8 天前
llama.cpp 问题解决记录
llama
code_pgf8 天前
llama.cpp 最新架构详解
人工智能·架构·llama
飞Link8 天前
2026年大模型落地深度对比:Llama 5 开源权重与 GPT-5 闭源生态
gpt·开源·llama