【ms-swift 大模型微调实战】

安装环境

下载模型

  • modelscope download --model Qwen/Qwen2.5-7B-Instruct --local_dir ./Qwen2.5-7B-Instruct

微调

  • 实验环境:4 * A100# 显存占用:4 * 70GB

    复制代码
      NPROC_PER_NODE=4 CUDA_VISIBLE_DEVICES=0,1,2,3 swift sft \
          --model_type qwen2_5-72b-instruct \
          --model_id_or_path Qwen2.5-72B-Instruct \
          --dataset qwen2-pro-en#500 qwen2-pro-zh#500 self-cognition#500 \
          --logging_steps 5 \
          --learning_rate 1e-4 \
          --output_dir output \ 
          --lora_target_modules ALL \
          --model_name 小黄 'Xiao Huang' \
          --model_author 魔搭 ModelScope \
          --deepspeed default-zero3
  • 单卡A10/3090可运行的例子 (Qwen2.5-7B-Instruct)# 显存占用:24GB

    复制代码
    	CUDA_VISIBLE_DEVICES=0 swift sft \
      --model_type qwen2_5-7b-instruct \
      --model_id_or_path Qwen2.5-7B-Instruct \
      --dataset qwen2-pro-en#500 qwen2-pro-zh#500 self-cognition#500 \
      --logging_steps 5 \
      --max_length 2048 \
      --learning_rate 1e-4 \
      --output_dir output \
      --lora_target_modules ALL \
      --model_name 小黄 'Xiao Huang' \
      --model_author 魔搭 ModelScope

融合lora

复制代码
CUDA_VISIBLE_DEVICES=0,1 swift export \    
        --ckpt_dir output/qwen2_5-72b-instruct/vx-xxx/checkpoint-xxx \    
        --merge_lora true

vLLM部署

vllm serve xxxxx-checkpoint-merged [opentional args]

参考

相关推荐
程序员老奥19 天前
【有手就行】SWIFT:花20分钟把大模型的名字变成你的名字
fine-tuning·大模型微调·ms-swift·认知微调
程序员老奥25 天前
【有手就行】LoRA:用你自己的数据来微调大模型,让大模型真正懂你
lora·llm·fine-tuning·大模型微调
Study9961 个月前
科普专栏|大语言模型:理解与生成语言的人工智能
人工智能·深度学习·机器学习·大模型·agent·大模型微调·大模型应用开发
@鱼香肉丝没有鱼1 个月前
大模型分布式微调 & Xtuner
分布式·大模型微调·xtuner·llamafactory
Dfreedom.2 个月前
大模型微调技术全景解析:从基础理论到工程实践
人工智能·大模型微调
@鱼香肉丝没有鱼2 个月前
大模型微调—LlamaFactory自定义微调数据集
大模型·大模型微调·自定义数据集
GRITJW3 个月前
InstructGPT 论文略读:三步走,让大模型真正听懂人话
大模型微调
段智华3 个月前
“AI+“行动下的可控智能体:GPT-5 与 GPT-OSS 高性能推理 安全可控 产业落地 GPT-OSS 一可控AI目前全球唯一开源解决方案
强化学习·大模型微调
GRITJW3 个月前
大模型参数高效微调技术
大模型微调