记录一个LLaMA-Factroy配置过程。
安装
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"
训练
CUDA_VISIBLE_DEVICES=0 llamafactory-cli train example/train_lora/.yaml
按理说配置好文件应该就可以启动了,但是一直包错说没有output_dir这个参数。百思不得其解,后来我把整个yaml文件的参数都注视掉,竟然还是报了同样的错。我发现可能是其他地方出错,后来发现竟然是我的yaml配置文件是以yml
结尾,官方的是以yaml
结尾。大乌龙。因此如果官方有例子,尽量复制,再手动改,稍微细节没对上就会报错,这很正常,但是要通过尽可能合理的方式避免bug。