LLM - LLama 模型读取报错 TypeError: not a string

一.引言

读取 LLama2 模型时报错 TypeError: not a string

看异常栈是 AutoTokenizer.from_pretrained 时候的异常。

二.问题解决

出现类似加载模型异常的问题,大致分两类:

模型地址异常

脚本里传的 pretrained_model Path 有问题,加 ""、'' 或者 / 等标识尝试是否可以正常加载。

模型文件后缀异常

还有一个可能就是模型文件内的后缀出现异常,上述报错由于 tokenizer.model 后缀异常,多了 .model.model 所以加载异常。出现这个问题是由于博主在下载模型保存时不知道怎么多了这个后缀,这里 mv 将文件修改正确即可,顺便把 README 也改对了...

bash 复制代码
mv tokenizer.model.model.model tokenizer.model
mv README.md.md.md README.md

三.总结

这个错误比较基础,出现这个问题检查传的参数和模型的文件名可以很快定位问题。

相关推荐
辣大辣条1 天前
LLAMA-Factory Qwen3-1.7b模型微调
llama
我狸才不是赔钱货1 天前
AI大模型“战国策”:主流LLM平台简单介绍
c++·人工智能·程序人生·github·llama
临街的小孩3 天前
Docker 容器访问宿主机 Ollama 服务配置教程
llama·argflow
鸿蒙小白龙3 天前
OpenHarmony平台大语言模型本地推理:llama深度适配与部署技术详解
人工智能·语言模型·harmonyos·鸿蒙·鸿蒙系统·llama·open harmony
AI大模型6 天前
轻松搞定百个大模型微调!LLaMA-Factory:你的AI模型量产神器
程序员·llm·llama
fly五行10 天前
大模型基础入门与 RAG 实战:从理论到 llama-index 项目搭建(有具体代码示例)
python·ai·llama·llamaindex
德育处主任Pro14 天前
前端玩转大模型,DeepSeek-R1 蒸馏 Llama 模型的 Bedrock 部署
前端·llama
relis15 天前
AVX-512深度实现分析:从原理到LLaMA.cpp的性能优化艺术
性能优化·llama
relis16 天前
llama.cpp RMSNorm CUDA 优化分析报告
算法·llama
云雾J视界16 天前
开源革命下的研发突围:Meta Llama系列模型的知识整合实践与启示
meta·开源·llama·知识管理·知识整合·知识迭代·知识共享