大模型微调lama-factory

简介

LLaMA-Factory是一个强大的工具,用于微调大型语言模型。本文将介绍如何使用LLaMA-Factory进行模型微调的简单操作流程,并提供代码记录。

操作流程
  1. 环境搭建

    • 首先,需要克隆LLaMA-Factory仓库并安装必要的库:

      复制代码

      bash

      复制代码
      !git clone https://github.com/hiyouga/LLaMA-Factory.git
      %cd LLaMA-Factory
      %ls
    • 安装unsloth,xformers和bitsandbytes库:

      复制代码

      bash

      复制代码
      !pip install "unsloth[colab-new] @ git+https://github.com/unslothai/unsloth.git"
      !pip install --no-deps xformers==0.0.25
      !pip install .[bitsandbytes]
      !pip install 'urllib3<2'
  2. 数据集准备

    • 将自定义数据集复制到data目录下,并修改data/dataset_info.json以注册数据集:

      复制代码

      json

      复制代码
      {
        "adgen_local": {
          "file_name": "your_dataset.json"
        }
      }
  3. 模型微调

    • 使用LLaMA-Factory的命令行工具进行微调,以下是一个基于LoRA的微调示例命令:

      复制代码

      bash

      复制代码
      CUDA_VISIBLE_DEVICES=0 llamafactory-cli train \
        --stage sft \
        --do_train \
        --model_name_or_path /path/to/your/model \
        --dataset adgen_local \
        --dataset_dir ./data \
        --template llama3 \
        --finetuning_type lora \
        --lora_target q_proj,v_proj \
        --output_dir ./saves/LLaMA3-8B/lora/sft \
        --overwrite_cache \
        --overwrite_output_dir \
        --cutoff_len 1024 \
        --preprocessing_num_workers 16 \
        --per_device_train_batch_size 2 \
        --gradient_accumulation_steps 8 \
        --lr_scheduler_type cosine \
        --logging_steps 50 \
        --warmup_steps 20 \
        --save_steps 100 \
        --eval_steps 50 \
        --evaluation_strategy steps \
        --load_best_model_at_end \
        --learning_rate 5e-5 \
        --num_train_epochs 5.0 \
        --max_samples 1000 \
        --val_size 0.1 \
        --plot_loss \
        --fp16

      参数解释和更多命令可以通过llamafactory-cli train -h获取。

  4. 模型导出

    • 微调完成后,使用以下命令合并LoRA权重到原始模型,并导出新模型:

      复制代码

      bash

      复制代码
      modelPath=/path/to/your/model
      adapterModelPath=./saves/lora/sft/
      llamafactory-cli export \
        --model_name_or_path $modelPath \
        --adapter_name_or_path $adapterModelPath \
        --template qwen \
        --finetuning_type lora \
        --export_dir ./saves/lora/export/ \
        --export_size 2 \
        --export_device cpu \
        --export_legacy_format False
  5. 预测评估

    • 使用微调后的模型进行预测,并评估模型性能:

      复制代码

      bash

      复制代码
      modelPath=/path/to/your/model
      llamafactory-cli train \
        --stage sft \
        --do_predict \
        --finetuning_type lora \
        --model_name_or_path $modelPath \
        --adapter_name_or_path ./saves/lora/sft \
        --template qwen \
        --dataset identity \
        --cutoff_len 4096 \
        --max_samples 20 \
        --overwrite_cache \
        --overwrite_output_dir \
        --per_device_eval_batch_size 1 \
        --preprocessing_num_workers 16 \
        --predict_with_generate
相关推荐
Want5951 小时前
从ChatGPT到GPT-4:大模型如何重塑人类认知边界?
chatgpt·aigc
Awesome Baron8 小时前
《Learning Langchain》阅读笔记8-RAG(4)在vector store中存储embbdings
python·jupyter·chatgpt·langchain·llm
张申傲8 小时前
多模态(3):实战 GPT-4o 视频理解
人工智能·chatgpt·aigc·多模态
SLY司赖12 小时前
大模型应用开发之LLM入门
语言模型·chatgpt·llm
古希腊掌管学习的神1 天前
[LangGraph教程]LangGraph04——支持人机协作的聊天机器人
人工智能·语言模型·chatgpt·机器人·agent
鸿蒙布道师1 天前
OpenAI为何觊觎Chrome?AI时代浏览器争夺战背后的深层逻辑
前端·人工智能·chrome·深度学习·opencv·自然语言处理·chatgpt
AIGC大时代1 天前
高质量学术引言如何妙用ChatGPT?如何写提示词
人工智能·深度学习·chatgpt·学术写作·chatgpt-o3·deep reaserch
盈达科技3 天前
[盈达科技】GEO(生成式引擎优化)实战指南:从认知重构、技术落地到内容突围的三维战略
人工智能·chatgpt
Feel_狗焕4 天前
transformer架构详解由浅入深-大模型入坑笔记真的很详细
chatgpt·llm
赵钰老师4 天前
【大语言模型DeepSeek+ChatGPT+python】最新AI-Python机器学习与深度学习技术在植被参数反演中的核心技术应用
人工智能·arcgis·语言模型·chatgpt·数据分析