decapoda-research/llama-7b-hf 的踩坑记录

使用transformers加载decapoda-research/llama-7b-hf的踩坑记录。

  1. ValueError: Tokenizer class LLaMATokenizer does not exist or is not currently imported.

    解决办法:

    https://github.com/huggingface/transformers/issues/22222

    将tokenizer_config.json中LLaMATokenizer改为LlamaTokenizer。

  2. RecursionError: maximum recursion depth exceeded while getting the str of an object.

    解决办法:

    https://github.com/huggingface/transformers/issues/22762

    使用tokenizer_config.json替换原本的tokenizer_config.json

相关推荐
开发者导航3 小时前
【开发者导航】轻量可微调且开源的大语言模型家族:LLaMA
语言模型·开源·llama
缘友一世10 小时前
借助LLama_Factory工具对大模型进行lora微调
llama
illuspas2 天前
MI50运算卡使用llama.cpp的ROCm后端运行Qwen3-Coder-30B-A3B的速度测试
人工智能·llama
herogus丶2 天前
【LLM】LLaMA-Factory 训练模型入门指南
python·ai编程·llama
illuspas2 天前
MI50运算卡使用llama.cpp的ROCm后端运行gpt-oss-20b的速度测试
人工智能·gpt·llama
谏书稀2 天前
LLaMA Factory微调大模型
python·transformer·llama
菠菠萝宝3 天前
【AI应用探索】-7- LLaMA-Factory微调模型
人工智能·深度学习·大模型·llm·nlp·attention·llama
wuningw4 天前
Windows环境下LLaMA-Factory微调模型时“未检测到CUDA环境”
llama
喜欢吃豆5 天前
llama.cpp 全方位技术指南:从底层原理到实战部署
人工智能·语言模型·大模型·llama·量化·llama.cpp
skywalk81636 天前
在星河社区部署大模型unsloth/Llama-3.3-70B-Instruct-GGUF
llama·aistudio