大模型微调完整步骤( LLama-Factory)

一、LLaMA-Factory安装部署

在安装之前,首先需要有一个linux服务器 ,并在这个服务器上完成搭建,否则在后续配置和安装时可能会出现非常多的兼容性问题。如果本地是windows机器,推荐使用windows自带的hyper-v虚拟化出来一个linux环境。

LLaMA-Factory 的 Github地址:https://github.com/hiyouga/LLaMA-Factory

  • 克隆仓库

    git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git

  • 切换到项⽬⽬录

    cd LLaMA-Factory

  • 修改配置,将 conda 虚拟环境安装到数据盘(这⼀步也可不做)

    mkdir -p /root/autodl-tmp/conda/pkgs
    conda config --add pkgs_dirs /root/autodl-tmp/conda/pkgs
    mkdir -p /root/autodl-tmp/conda/envs
    conda config --add envs_dirs /root/autodl-tmp/conda/envs

  • 创建 conda 虚拟环境(⼀定要 3.10 的 python 版本,不然和 LLaMA-Factory 不兼容)

    conda create -n llama-factory python=3.10

  • 激活虚拟环境

    conda activate llama-factory

  • 在虚拟环境中安装 LLaMA Factory 相关依赖,注意:如报错 bash: pip: command not found ,先执⾏ conda install pip 即可

    pip install -e ".[torch,metrics]"

  • 检验是否安装成功

    llamafactory-cli version

二、启动 LLama-Factory的可视化微调界⾯ (由 Gradio驱动)

直接运行下面的命令:

复制代码
llamafactory-cli webui

2.1配置端口转发

如果使用了虚拟机、Docker或者购买云服务器,还需要配置端⼝转发,其中云服务器还需要开通防火墙端口。
在本地电脑的终端(cmd / powershell / terminal等)中执⾏代理命令,其中
root@123.125.240.150 和 42151 分别是实例中SSH指令的访问地址与端⼝,请找到⾃⼰实
例的ssh指令做相应替换。 7860:127.0.0.1:7860 是指代理实例内 7860 端⼝到本地的 7860
端⼝

复制代码
ssh -CNg -L 7860:127.0.0.1:7860 root@123.125.240.150 -p 42151

2.2从 HuggingFace上下载基座模型

HuggingFace 是⼀个集中管理和共享预训练模型的平台 https://huggingface.co;

  • 创建⽂件夹统⼀存放所有基座模型

    mkdir Hugging-Face

  • 修改 HuggingFace 的镜像源

    export HF_ENDPOINT=https://hf-mirror.com

  • 修改模型下载的默认位置

    export HF_HOME=/root/autodl-tmp/Hugging-Face

  • 注意:这种配置⽅式只在当前 shell 会话中有效,如果你希望这个环境变量在每次启动终端时都⽣效,可以将其添加到你的⽤户配置⽂件中(修改 ~/.bashrc 或 ~/.zshrc )

  • 检查环境变量是否⽣效

    echo HF_ENDPOINT echo HF_HOME

  • 安装 HuggingFace 官⽅下载⼯具

    pip install -U huggingface_hub

  • 执⾏下载命令

    huggingface-cli download --resume-download deepseek-ai/DeepSeek-R1-DistillQwen-1.5B

  • 如果直接本机下载了模型压缩包,如何放到你的服务器上?------在 AutoDL 上打开JupyterLab 直接上传,或者下载软件通过 SFTP 协议传送

三、可视化⻚⾯上加载模型测试,检验是否加载成功

注意:这⾥的路径是模型⽂件夹内部的模型特定快照的唯⼀哈希值,⽽不是整个模型⽂件夹

相关推荐
xixixi7777710 小时前
Token 经济引爆 AI 产业加速:从百模大战到百虾大战,谁在定义 2026 的中国 AI?
大数据·人工智能·机器学习·ai·大模型·算力·通信
爱上珍珠的贝壳10 小时前
ESP32-S3-CAM:豆包语音识别文字后控制小车(一)——注册豆包火山引擎开发者接口
人工智能·语音识别·智能硬件·火山引擎·esp32-s3·豆包语音
七七powerful10 小时前
运维养龙虾--使用Tidb skill,让 AI 写出「生产级」SQL
人工智能
xiaoyaohou1110 小时前
011、骨干网络改进(二):MobileNet、ShuffleNet等轻量骨干的适配
网络·深度学习·机器学习
IT枫斗者10 小时前
MSE Nacos Prompt 管理:AI Agent 配置的工程化治理实践
网络·人工智能·websocket·网络协议·prompt·jar
love530love10 小时前
Windows 下 vcpkg 依赖环境部署与全局化配置
人工智能·windows·vcpkg
wangfpp10 小时前
AI生成UI的工程化实践:json-render概念、与A2UI对比及基于Qwen的实现
人工智能
Becomewiser10 小时前
为什么你的Openclaw龙虾总是智障,ClaudeCode源码泄露揭露:Agent 的差距不在模型,在 Harness Engineering
人工智能
永霖光电_UVLED10 小时前
Polar Light 获得了欧盟Eurostars计划的110万欧元(€1.1m)资助
大数据·人工智能·物联网·汽车·娱乐
SelectDB10 小时前
AI 成为主流负载后,数据基础设施将如何演进?|Apache Doris 2026 Roadmap
人工智能·数据分析