【ms-swift 大模型微调实战】

安装环境

下载模型

  • modelscope download --model Qwen/Qwen2.5-7B-Instruct --local_dir ./Qwen2.5-7B-Instruct

微调

  • 实验环境:4 * A100# 显存占用:4 * 70GB

      NPROC_PER_NODE=4 CUDA_VISIBLE_DEVICES=0,1,2,3 swift sft \
          --model_type qwen2_5-72b-instruct \
          --model_id_or_path Qwen2.5-72B-Instruct \
          --dataset qwen2-pro-en#500 qwen2-pro-zh#500 self-cognition#500 \
          --logging_steps 5 \
          --learning_rate 1e-4 \
          --output_dir output \ 
          --lora_target_modules ALL \
          --model_name 小黄 'Xiao Huang' \
          --model_author 魔搭 ModelScope \
          --deepspeed default-zero3
    
  • 单卡A10/3090可运行的例子 (Qwen2.5-7B-Instruct)# 显存占用:24GB

    	CUDA_VISIBLE_DEVICES=0 swift sft \
      --model_type qwen2_5-7b-instruct \
      --model_id_or_path Qwen2.5-7B-Instruct \
      --dataset qwen2-pro-en#500 qwen2-pro-zh#500 self-cognition#500 \
      --logging_steps 5 \
      --max_length 2048 \
      --learning_rate 1e-4 \
      --output_dir output \
      --lora_target_modules ALL \
      --model_name 小黄 'Xiao Huang' \
      --model_author 魔搭 ModelScope
    

融合lora

CUDA_VISIBLE_DEVICES=0,1 swift export \    
        --ckpt_dir output/qwen2_5-72b-instruct/vx-xxx/checkpoint-xxx \    
        --merge_lora true

vLLM部署

vllm serve xxxxx-checkpoint-merged [opentional args]

参考

相关推荐
初窺門徑2 天前
llama-factory部署微调方法(wsl-Ubuntu & Windows)
llama·大模型微调·llama-factory
大鱼>3 天前
Ubuntu 服务器Llama Factory 搭建DeepSeek-R1微调训练环境
llama·大模型微调·deepseek
小白顶呱呱3 天前
图解【提示工程 VS 微调 VS RAG、全量微调 VS LoRA微调、TopK VS TopP】截图笔记
笔记·大模型·prompt·rag·大模型微调
Nicolas8932 个月前
【大模型实战篇】LLaMA Factory微调ChatGLM-4-9B模型
大模型·全参微调·大模型微调·glm4·llamafactory·chatglm9b
python_知世2 个月前
基于LLaMA-Factory微调Llama3
人工智能·深度学习·程序人生·自然语言处理·大语言模型·llama·大模型微调
余胜辉2 个月前
机器人构建详解:售前售后服务客服机器人与广告生成机器人的微调数据处理方法
数据清洗·大模型微调·知识库查询与构建
人工智能培训咨询叶梓3 个月前
人工智能大模型培训讲师叶梓:Llama Factory 微调模型实战分享提纲
性能优化·llama·大模型微调·人工智能讲师·大模型讲师·人工智能培训·微调大模型
人工智能培训咨询叶梓3 个月前
NodeFormer:一种用于节点分类的可扩展图结构学习 Transformer
人工智能·语言模型·自然语言处理·分类·transformer·大模型微调·图结构
爱喝白开水a3 个月前
优化注意力层提升 Transformer 模型效率:通过改进注意力机制降低机器学习成本
人工智能·深度学习·机器学习·自然语言处理·大模型·transformer·大模型微调
爱喝白开水a3 个月前
Sentence-BERT实现文本匹配【分类目标函数】
人工智能·深度学习·机器学习·自然语言处理·分类·bert·大模型微调