launcher.py: error: the following arguments are required: --output_dir

记录一个LLaMA-Factroy配置过程。

安装

复制代码
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"

训练

复制代码
CUDA_VISIBLE_DEVICES=0 llamafactory-cli train example/train_lora/.yaml

按理说配置好文件应该就可以启动了,但是一直包错说没有output_dir这个参数。百思不得其解,后来我把整个yaml文件的参数都注视掉,竟然还是报了同样的错。我发现可能是其他地方出错,后来发现竟然是我的yaml配置文件是以yml结尾,官方的是以yaml结尾。大乌龙。因此如果官方有例子,尽量复制,再手动改,稍微细节没对上就会报错,这很正常,但是要通过尽可能合理的方式避免bug。

相关推荐
硬核隔壁老王9 小时前
一篇文章带你快速理解 MCP
人工智能·程序员·llm
我是王大你是谁11 小时前
QWEN2.5-3B 蒸馏 QWEN2.5-0.5B
人工智能·llm
AI大模型知识12 小时前
构建LangChain代理以实现流程自动化示例
人工智能·llm
大尾巴青年16 小时前
06 一分钟搞懂langchain的Agent是如何工作的
langchain·llm
小阿鑫16 小时前
记录第一次公司内部分享:如何基于大模型搭建企业+AI业务
大模型·llm·agent·大模型落地·ai落地·mcp·mcpserver
硬核隔壁老王16 小时前
从零开始搭建RAG系统系列(三):数据准备与预处理
人工智能·程序员·llm
硬核隔壁老王16 小时前
从零开始搭建RAG系统系列(四):⽂档向量化与索引构建
人工智能·程序员·llm
AI大模型知识1 天前
如何微调推理大模型?以Qwen3/DeepSeek-R1为例
人工智能·llm
用户24003619235001 天前
一文弄懂大模型RAG
人工智能·llm