LLaMA-Factory学习(1)简介及安装步骤

  • 操作系统:ubuntu22.04
  • IDE:Visual Studio Code
  • 编程语言:Python 3.10

LLaMA-Factory 简介

LLaMA-Factory 是一个开源的 全栈大模型微调框架,支持从预训练到指令微调(SFT)、强化学习(RLHF)等全流程训练。其核心特点包括:

  • 支持多种模型:Llama、LLaMA-3、Mistral、Qwen、Baichuan、ChatGLM 等。
  • 灵活的微调方法:全参数微调(Full)、冻结微调(Freeze)、LoRA、QLoRA 等。
  • 低资源训练:通过量化(INT4/INT8)和高效算法(如 GaLore、Unsloth)降低显存占用。
  • 可视化界面:提供 llamafactory-cli webui 的网页界面,方便非开发者快速上手。
  • 部署与推理:支持 API、Gradio Web 界面和命令行推理。

为什么学习 LLaMA-Factory

1.自从有了大模型后,不管企业还是个人都对大模型有了强烈的需求,通过公网访问这些大模型比如deepseek或者通义千问,用户担心隐私泄露,不愿意在公网上上传自己的私有数据,从而有了私有化部署大模型的需求。

2.用户可能会希望给大模型喂上自己的数据,这样就能对你的提问有了准确的回答,尤其是企业内部的一些数据,或者一些比较专业的行业数据。

  1. LLaMA-Factory 就能实现大模型微调,添加进去自己的数据进去。而且不需要重新训练大模型。

LLaMA-Factory 安装

1.先创建一个anaconda环境llama_factory

bash 复制代码
conda create -n llama_factory python=3.10

如下图:
2.进入llama_factory环境

bash 复制代码
conda activate llama_factory

3.在github上下载llama_factory

bash 复制代码
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git

进入到目录:

bash 复制代码
cd LLaMA-Factory

4.安装 LLaMA Factory 相关依赖

bash 复制代码
pip install -e ".[torch,metrics]"

5.检验是否安装成功

bash 复制代码
llamafactory-cli version

输出:

bash 复制代码
----------------------------------------------------------
| Welcome to LLaMA Factory, version 0.9.3.dev0           |
|                                                        |
| Project page: https://github.com/hiyouga/LLaMA-Factory |
----------------------------------------------------------

表示安装成功

LaMA Board 可视化微调(由 Gradio 驱动)

bash 复制代码
llamafactory-cli webui

会跳出webui的界面,如下图:

相关推荐
wuningw9 小时前
Windows环境下LLaMA-Factory微调模型时“未检测到CUDA环境”
llama
喜欢吃豆2 天前
llama.cpp 全方位技术指南:从底层原理到实战部署
人工智能·语言模型·大模型·llama·量化·llama.cpp
skywalk81633 天前
在星河社区部署大模型unsloth/Llama-3.3-70B-Instruct-GGUF
llama·aistudio
鹿子沐3 天前
LlamaFactory微调效果与vllm部署效果不一致
人工智能·llama
三千院本院4 天前
LlaMA_Factory实战微调Qwen-LLM大模型
人工智能·python·深度学习·llama
珊珊而川4 天前
MAC-SQL:SQL-Llama 的具体训练流程
sql·macos·llama
共绩算力4 天前
Llama 4 Maverick Scout 多模态MoE新里程碑
人工智能·llama·共绩算力
yanzhilv5 天前
Ollama + Open WebUI
llama
喜欢吃豆7 天前
掌握本地化大语言模型部署:llama.cpp 工作流与 GGUF 转换内核全面技术指南
人工智能·语言模型·架构·大模型·llama·llama.cpp·gguf
illuspas9 天前
Ubuntu 24.04下编译支持ROCm加速的llama.cpp
linux·ubuntu·llama