decapoda-research/llama-7b-hf 的踩坑记录

使用transformers加载decapoda-research/llama-7b-hf的踩坑记录。

  1. ValueError: Tokenizer class LLaMATokenizer does not exist or is not currently imported.

    解决办法:

    https://github.com/huggingface/transformers/issues/22222

    将tokenizer_config.json中LLaMATokenizer改为LlamaTokenizer。

  2. RecursionError: maximum recursion depth exceeded while getting the str of an object.

    解决办法:

    https://github.com/huggingface/transformers/issues/22762

    使用tokenizer_config.json替换原本的tokenizer_config.json

相关推荐
大模型教程1 天前
小白学大模型:从零搭建LLaMA
程序员·llm·llama
Jina AI3 天前
让 llama.cpp 支持多模态向量模型
llama
wyw00003 天前
大模型微调之LLaMA-Factory实战
llama
2202_756749693 天前
LLM大模型-大模型微调(常见微调方法、LoRA原理与实战、LLaMA-Factory工具部署与训练、模型量化QLoRA)
人工智能·深度学习·llama
JoannaJuanCV3 天前
大模型训练框架:LLaMA-Factory框架
llama·大模型训练·llama factory
骑士9991116 天前
llama_factory 安装以及大模型微调
llama
周小码6 天前
llama-stack实战:Python构建Llama应用的可组合开发框架(8k星)
开发语言·python·llama
blackoon889 天前
DeepSeek R1大模型微调实战-llama-factory的模型下载与训练
llama
johnny2339 天前
大模型微调理论、实战:LLaMA-Factory、Unsloth
llama
闲看云起9 天前
从 GPT 到 LLaMA:解密 LLM 的核心架构——Decoder-Only 模型
gpt·架构·llama