LLaMA-Factory学习(1)简介及安装步骤

  • 操作系统:ubuntu22.04
  • IDE:Visual Studio Code
  • 编程语言:Python 3.10

LLaMA-Factory 简介

LLaMA-Factory 是一个开源的 全栈大模型微调框架,支持从预训练到指令微调(SFT)、强化学习(RLHF)等全流程训练。其核心特点包括:

  • 支持多种模型:Llama、LLaMA-3、Mistral、Qwen、Baichuan、ChatGLM 等。
  • 灵活的微调方法:全参数微调(Full)、冻结微调(Freeze)、LoRA、QLoRA 等。
  • 低资源训练:通过量化(INT4/INT8)和高效算法(如 GaLore、Unsloth)降低显存占用。
  • 可视化界面:提供 llamafactory-cli webui 的网页界面,方便非开发者快速上手。
  • 部署与推理:支持 API、Gradio Web 界面和命令行推理。

为什么学习 LLaMA-Factory

1.自从有了大模型后,不管企业还是个人都对大模型有了强烈的需求,通过公网访问这些大模型比如deepseek或者通义千问,用户担心隐私泄露,不愿意在公网上上传自己的私有数据,从而有了私有化部署大模型的需求。

2.用户可能会希望给大模型喂上自己的数据,这样就能对你的提问有了准确的回答,尤其是企业内部的一些数据,或者一些比较专业的行业数据。

  1. LLaMA-Factory 就能实现大模型微调,添加进去自己的数据进去。而且不需要重新训练大模型。

LLaMA-Factory 安装

1.先创建一个anaconda环境llama_factory

bash 复制代码
conda create -n llama_factory python=3.10

如下图:
2.进入llama_factory环境

bash 复制代码
conda activate llama_factory

3.在github上下载llama_factory

bash 复制代码
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git

进入到目录:

bash 复制代码
cd LLaMA-Factory

4.安装 LLaMA Factory 相关依赖

bash 复制代码
pip install -e ".[torch,metrics]"

5.检验是否安装成功

bash 复制代码
llamafactory-cli version

输出:

bash 复制代码
----------------------------------------------------------
| Welcome to LLaMA Factory, version 0.9.3.dev0           |
|                                                        |
| Project page: https://github.com/hiyouga/LLaMA-Factory |
----------------------------------------------------------

表示安装成功

LaMA Board 可视化微调(由 Gradio 驱动)

bash 复制代码
llamafactory-cli webui

会跳出webui的界面,如下图:

相关推荐
临街的小孩13 小时前
Docker 容器访问宿主机 Ollama 服务配置教程
llama·argflow
鸿蒙小白龙14 小时前
OpenHarmony平台大语言模型本地推理:llama深度适配与部署技术详解
人工智能·语言模型·harmonyos·鸿蒙·鸿蒙系统·llama·open harmony
AI大模型3 天前
轻松搞定百个大模型微调!LLaMA-Factory:你的AI模型量产神器
程序员·llm·llama
fly五行7 天前
大模型基础入门与 RAG 实战:从理论到 llama-index 项目搭建(有具体代码示例)
python·ai·llama·llamaindex
德育处主任Pro11 天前
前端玩转大模型,DeepSeek-R1 蒸馏 Llama 模型的 Bedrock 部署
前端·llama
relis12 天前
AVX-512深度实现分析:从原理到LLaMA.cpp的性能优化艺术
性能优化·llama
relis13 天前
llama.cpp RMSNorm CUDA 优化分析报告
算法·llama
云雾J视界13 天前
开源革命下的研发突围:Meta Llama系列模型的知识整合实践与启示
meta·开源·llama·知识管理·知识整合·知识迭代·知识共享
丁学文武14 天前
大模型原理与实践:第三章-预训练语言模型详解_第3部分-Decoder-Only(GPT、LLama、GLM)
人工智能·gpt·语言模型·自然语言处理·大模型·llama·glm
余衫马15 天前
llama.cpp:本地大模型推理的高性能 C++ 框架
c++·人工智能·llm·llama·大模型部署