decapoda-research/llama-7b-hf 的踩坑记录

使用transformers加载decapoda-research/llama-7b-hf的踩坑记录。

  1. ValueError: Tokenizer class LLaMATokenizer does not exist or is not currently imported.

    解决办法:

    https://github.com/huggingface/transformers/issues/22222

    将tokenizer_config.json中LLaMATokenizer改为LlamaTokenizer。

  2. RecursionError: maximum recursion depth exceeded while getting the str of an object.

    解决办法:

    https://github.com/huggingface/transformers/issues/22762

    使用tokenizer_config.json替换原本的tokenizer_config.json

相关推荐
快撑死的鱼12 小时前
Llama-factory 详细学习笔记:第六章:DPO (直接偏好优化) 实战 (难点)
笔记·学习·llama
一见已难忘12 小时前
昇腾加持下的Llama 3.2:开源大模型推理性能1B英文原版与3B中文微调模型实测对比
人工智能·开源·llama·gitcode·昇腾
被制作时长两年半的个人练习生16 小时前
使用rvv优化rms_norm
linux·llama·risc-v
LiYingL3 天前
OctoThinker 通过改进 Llama 来支持强化学习,展示了中间学习的威力
人工智能·学习·llama
范男4 天前
Qwen3-VL + LLama-Factory进行针对Grounding任务LoRA微调
人工智能·深度学习·计算机视觉·transformer·llama
忘记5785 天前
下载llama factory
llama
路边草随风5 天前
llama_index简单使用
人工智能·python·llama
王威振的csdn5 天前
法律大模型微调:基于 LLaMA-Factory 的指令微调方案
llama
JoannaJuanCV6 天前
大模型训练:LLaMA-Factory快速上手
llama
java_logo6 天前
LANGFUSE Docker 容器化部署指南
运维·docker·云原生·容器·eureka·llama