launcher.py: error: the following arguments are required: --output_dir

记录一个LLaMA-Factroy配置过程。

安装

复制代码
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"

训练

复制代码
CUDA_VISIBLE_DEVICES=0 llamafactory-cli train example/train_lora/.yaml

按理说配置好文件应该就可以启动了,但是一直包错说没有output_dir这个参数。百思不得其解,后来我把整个yaml文件的参数都注视掉,竟然还是报了同样的错。我发现可能是其他地方出错,后来发现竟然是我的yaml配置文件是以yml结尾,官方的是以yaml结尾。大乌龙。因此如果官方有例子,尽量复制,再手动改,稍微细节没对上就会报错,这很正常,但是要通过尽可能合理的方式避免bug。

相关推荐
mCell4 小时前
长期以来我对 LLM 的误解
深度学习·llm·ollama
扫地的小何尚6 小时前
深度解析 CUDA-QX 0.4 加速 QEC 与求解器库
人工智能·语言模型·llm·gpu·量子计算·nvidia·cuda
大模型教程11 小时前
如何在你的业务中选择RAG和Fine tuning?
程序员·llm·agent
AI大模型11 小时前
前端学 AI 不用愁!手把手教你用 LangGraph 实现 ReAct 智能体(附完整流程 + 代码)
前端·llm·agent
大模型教程11 小时前
LangGraph实战教程(1)- 从零开始认识LangGraph
langchain·llm·agent
聚客AI14 小时前
🍇Embedding模型怎么选?一文解决RAG应用中最头疼的难题
人工智能·llm·agent
AI大模型15 小时前
干货分享 | 如何使用Cherry Studio快速上手AI学习实践
程序员·llm·agent
刘立军19 小时前
本地大模型编程实战(37)使用知识图谱增强RAG(3)
后端·架构·llm
Baihai_IDP19 小时前
GPU 网络通信基础,Part 1(横向与纵向扩展;训练中的通信环节...)
人工智能·llm·gpu