decapoda-research/llama-7b-hf 的踩坑记录

使用transformers加载decapoda-research/llama-7b-hf的踩坑记录。

  1. ValueError: Tokenizer class LLaMATokenizer does not exist or is not currently imported.

    解决办法:

    https://github.com/huggingface/transformers/issues/22222

    将tokenizer_config.json中LLaMATokenizer改为LlamaTokenizer。

  2. RecursionError: maximum recursion depth exceeded while getting the str of an object.

    解决办法:

    https://github.com/huggingface/transformers/issues/22762

    使用tokenizer_config.json替换原本的tokenizer_config.json

相关推荐
谷子熟了1 天前
电商智能客服系统本地搭建
经验分享·docker·typescript·ai编程·llama
YXHPY1 天前
开源 AI 工作流底座正在加速:从 llama.cpp、Ollama 到 vLLM 与 Agent 编排
人工智能·开源·llama
佳xuan2 天前
llama微调后大模型测评
llama
佳xuan3 天前
LLama_Factory配置及模型微调实践
llama
zhangfeng11333 天前
LLaMA-Factory 在训练模型时检查点(Checkpoint)文件说明
人工智能·深度学习·llama
ONE_SIX_MIX4 天前
最先进llama.cpp量化方法PK,APEX vs UD_XL,在 Qwen3.6-35B-A3B 中爆发! 2026年4月
apex·llama·量化·unsloth
天地沧海6 天前
GPT、BERT、LLaMA 这些模型类别怎么区分
gpt·bert·llama
胖少年8 天前
从零开始:在 Windows 上用 llama.cpp 跑本地大模型
windows·llama
路人与大师9 天前
在天垓150上部署 Llama-2-13B:一次 Iluvatar BI-V150 / CoreX 实战适配记录
llama
code_pgf9 天前
Llama 3 / Qwen / Mistral / DeepSeek 对比详解
人工智能·知识图谱·llama