LLM - LLama 模型读取报错 TypeError: not a string

一.引言

读取 LLama2 模型时报错 TypeError: not a string

看异常栈是 AutoTokenizer.from_pretrained 时候的异常。

二.问题解决

出现类似加载模型异常的问题,大致分两类:

模型地址异常

脚本里传的 pretrained_model Path 有问题,加 ""、'' 或者 / 等标识尝试是否可以正常加载。

模型文件后缀异常

还有一个可能就是模型文件内的后缀出现异常,上述报错由于 tokenizer.model 后缀异常,多了 .model.model 所以加载异常。出现这个问题是由于博主在下载模型保存时不知道怎么多了这个后缀,这里 mv 将文件修改正确即可,顺便把 README 也改对了...

bash 复制代码
mv tokenizer.model.model.model tokenizer.model
mv README.md.md.md README.md

三.总结

这个错误比较基础,出现这个问题检查传的参数和模型的文件名可以很快定位问题。

相关推荐
小草cys2 天前
在树莓派集群上部署 Distributed Llama (Qwen 3 14B) 详细指南
python·llama·树莓派·qwen
咕咚-萌西2 天前
联邦学习论文分享:Towards Building the Federated GPT:Federated Instruction Tuning
llama·联邦学习·指令微调
relis4 天前
解密llama.cpp中的batch与ubatch:深度学习推理优化的内存艺术
深度学习·batch·llama
relis4 天前
解密llama.cpp:Prompt Processing如何实现高效推理?
prompt·llama
GEO_JYB4 天前
BERT家族进化史:从BERT到LLaMA,每一次飞跃都源于对“学习”的更深理解
学习·bert·llama
AI大模型5 天前
大模型开发实战:使用 LLaMA Factory 微调与量化模型并部署至 Ollama
程序员·llm·llama
relis5 天前
解密llama.cpp:从Prompt到Response的完整技术流程剖析
prompt·llama
我不是小upper5 天前
Llama v3 中的低秩自适应 (LoRA)
llama
df007df12 天前
【RAGFlow代码详解-10】文本处理和查询处理
人工智能·ocr·embedding·llama
liliangcsdn12 天前
llama.cpp reranking源码分析
llama