7D-AI系列:模型微调之llama-factory

大模型的出现,导致信息量太大,只有静心动手操作,才能得到真理。

文章目录

llama-factory简介

Llama Factory 是一个专注于大型语言模型(LLMs)微调的开源工具库,旨在简化对 LLaMA(Meta 开源模型)、BLOOM、ChatGLM 等大模型的定制化训练流程。它提供了用户友好的接口和丰富的功能,帮助开发者、研究者快速实现模型在特定任务或数据集上的适配。

llama-factory主要功能

1. 多种训练方式支持

  • LoRA 微调
  • QLoRA 微调(量化版LoRA)
  • 全参数微调
  • DPO/ORPO/SimPO 训练(偏好对齐)
  • PPO 训练(强化学习)
  • KTO 训练
  • 预训练

2. 多模态支持

  • 支持 LLaVA、Qwen-VL 等多模态模型
  • 可以处理图像和视频输入

3. 模型量化

支持多种量化方法:GPTQ、AWQ、AQLM

支持 4-bit、8-bit 等不同精度

4. 分布式训练

  • 支持多机训练
  • 支持 DeepSpeed ZeRO-3
  • 支持 Ray 分布式
  • 支持 FSDP

5. 优化技术

  • GaLore 优化
  • APOLLO 优化
  • BAdam 优化器
  • Adam-mini 优化器
  • LoRA+
  • PiSSA 优化

源码模块

安装步骤

bash 复制代码
# 配置虚拟环境
conda create -n llama_factory python=3.12 -y
conda activate llama_factory
# 克隆 LLaMA-Factory 仓库(使用 --depth 1 可以只克隆最新版本,加快下载速度)
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
# 进入项目目录
cd LLaMA-Factory
# 安装依赖包,包括 PyTorch 和评估指标相关的依赖
pip install -e ".[torch,metrics]"
# 启动 Web UI 界面
llamafactory-cli webui

启动界面

配置模型、训练参数和数据集

注意:个人练习不要选择太大的模型权重,不然会非常慢,并且也没有效果。

数据集要配置在dataset_info.json中才能在列表中选择,如下所示:

训练过程

验证训练结果

训练前:


训练后:


其实微调并不难,难的是数据集和效果评估。

你想看哪些和AI大模型相关的技术点,可以留言,我们一一拆解。

相关推荐
小陈工1 小时前
Python Web开发入门(十七):Vue.js与Python后端集成——让前后端真正“握手言和“
开发语言·前端·javascript·数据库·vue.js·人工智能·python
墨染天姬6 小时前
【AI】端侧AIBOX可以部署哪些智能体
人工智能
AI成长日志6 小时前
【Agentic RL】1.1 什么是Agentic RL:从传统RL到智能体学习
人工智能·学习·算法
2501_948114246 小时前
2026年大模型API聚合平台技术评测:企业级接入层的治理演进与星链4SAPI架构观察
大数据·人工智能·gpt·架构·claude
小小工匠6 小时前
LLM - awesome-design-md 从 DESIGN.md 到“可对话的设计系统”:用纯文本驱动 AI 生成一致 UI 的新范式
人工智能·ui
黎阳之光6 小时前
黎阳之光:视频孪生领跑者,铸就中国数字科技全球竞争力
大数据·人工智能·算法·安全·数字孪生
小超同学你好6 小时前
面向 LLM 的程序设计 6:Tool Calling 的完整生命周期——从定义、决策、执行到观测回注
人工智能·语言模型
智星云算力7 小时前
本地GPU与租用GPU混合部署:混合算力架构搭建指南
人工智能·架构·gpu算力·智星云·gpu租用
jinanwuhuaguo7 小时前
截止到4月8日,OpenClaw 2026年4月更新深度解读剖析:从“能力回归”到“信任内建”的范式跃迁
android·开发语言·人工智能·深度学习·kotlin
xiaozhazha_7 小时前
效率提升80%:2026年AI CRM与ERP深度集成的架构设计与实现
人工智能