训练的Loss和输出突然全是nan【小白找bug】

某一天,我重新跑了两天之前正常跑的代码,训练的Loss和输出突然全是nan(从epoch0就是nan了),我惊慌失措。我的代码是关于微调llama的,于是我开始找问题,在输入进入llama之前都是没问题的,进入llama的输出变成了nan,所以有可能是llama本身的数值有问题,我是用下载好的llama权重文件初始化的,可以使用简单的程序验证一下是不是下载的权重文件的问题:

python 复制代码
import torch
import transformers
from transformers import LlamaForCausalLM, LlamaTokenizer
from transformers import pipeline


model_dir = "/llama/"  # 权重文件的路径

model = LlamaForCausalLM.from_pretrained (model_dir)
tokenizer = LlamaTokenizer.from_pretrained (model_dir)

print(type(model))
for name, param in model.named_parameters():
    if torch.isnan(param).any():
        print(f"Parameter {name} contains NaN")
    if torch.isinf(param).any():
        print(f"Parameter {name} contains Inf")
    if param.abs().max() > 1e6:  # 值过大可能导致数值溢出
        print(f"Parameter {name} has very large values: {param.abs().max()}")

pipeline = transformers.pipeline (
          "text-generation",
          model=model,
          tokenizer=tokenizer,
          torch_dtype=torch.float16,
          device_map="auto",
          )

sequences = pipeline (
          'I have tomatoes, basil and cheese at home. What can I cook for dinner?\n',
          do_sample=True,
          top_k=10,
          num_return_sequences=1,
          eos_token_id=tokenizer.eos_token_id,
          max_length=400,
          )

for seq in sequences:
    print (f"{seq ['generated_text']}")

运行这个程序后,有的param确实是NaN和Inf,也报错了。但是我刚下载完llama权重时候运行这个程序是没问题的。

确认就是llama权重文件的问题。

只能使用convert_llama_weights_to_hf.py再转换一份权重文件了。运行这个代码的时候又报错了:

python 复制代码
ImportError: cannot import name 'TikTokenConverter' from 'transformers.convert_slow_tokenizer'

于是只好重新安装transformers,不报错了

python 复制代码
pip install git+https://github.com/huggingface/transformers

注意安装transformer的命令并不是pip install transformers==xxx版本,我一开始这样安装都没解决报错。

后记:很奇怪,可能是服务器磁盘坏了一小块?我不理解,两天前没毛病,两天后全是毛病,心累,哭/(ㄒoㄒ)/~~

相关推荐
麦烤楽鸡翅27 分钟前
挡住洪水 (牛客)
java·数据结构·c++·python·算法·bfs·牛客
用户37215742613541 分钟前
如何使用Python高效转换Excel到HTML
python
ashuicoder1 小时前
Python 函数传参与 JavaScript 对比
python
kyle-fang1 小时前
pytorch-张量
人工智能·pytorch·python
PKNLP1 小时前
11.大模型Agent应用
python·agent·pip
woshihonghonga1 小时前
Dropout提升模型泛化能力【动手学深度学习:PyTorch版 4.6 暂退法】
人工智能·pytorch·python·深度学习·机器学习
java1234_小锋1 小时前
PyTorch2 Python深度学习 - 循环神经网络(RNN)实例
python·rnn·深度学习·pytorch2
Danceful_YJ2 小时前
28. 门控循环单元(GRU)的实现
pytorch·python·深度学习
2401_836900332 小时前
PyTorch图像分割训练全流程解析
pytorch·模型训练
三排扣2 小时前
手搓transformer
pytorch·python·transformer