【LLM模型】【自我认知微调】实践基于【ModelScope】的【ms-swift】框架【GPU】方式

前言

本文是基于ModelScopems-swift框架使用GPU的方式进行的LLM模型的自我认知微调实践

环境准备

创建conda虚拟环境

lua 复制代码
conda create -n model_scope_llm_gpu
conda activate model_scope_llm_gpu

创建model_scope_llm_gpu虚拟环境

切换到model_scope_llm_gpu虚拟环境

安装Python环境

本次实践Python版本依旧采用3.10版本

ini 复制代码
conda install python=3.10

安装Python3.10

安装pytorch-cuda环境

ini 复制代码
conda install pytorch==2.5.0 torchvision==0.20.0 torchaudio==2.5.0 pytorch-cuda=12.1 -c pytorch -c nvidia

pytorch-cuda安装开始

pytorch-cuda安装成功

安装ms-swift环境

arduino 复制代码
pip install 'ms-swift[llm]' -U

也可使用国内镜像,安装速度更快

arduino 复制代码
pip install 'ms-swift[llm]' -U -i https://pypi.tuna.tsinghua.edu.cn/simple

ms-swift安装开始

ms-swift安装成功

IDE准备

使用PyCharm IDE工具创建一个自己的项目目录:

选择File->New Project

选择已经创建好的虚拟环境

点击Create创建成功后会默认生成一个main.py的文件,等待右下角环境加载完成后,run运行一下main.py文件,成功打印Hi, PyCharm内容说明创建成功:

main.py文件

加载虚拟环境

main.py运行成功

LLM模型微调前推理

在新建的项目中创建一个inference_before.py文件,写入以下代码:

python 复制代码
import os

os.environ['CUDA_VISIBLE_DEVICES'] = '0'

from swift.llm import (
    get_model_tokenizer, get_template, inference, ModelType,
    get_default_template_type, inference_stream
)
from swift.utils import seed_everything
import torch

model_type = ModelType.glm4_9b_chat
template_type = get_default_template_type(model_type)
print(f'template_type: {template_type}')


kwargs = {}
model_id_or_path = None
model, tokenizer = get_model_tokenizer(model_type, torch.float16, model_id_or_path=model_id_or_path,
                                       model_kwargs={'device_map': 'cuda:0'}, **kwargs)
# 修改max_new_tokens
model.generation_config.max_new_tokens = 128

template = get_template(template_type, tokenizer)
seed_everything(42)

query = '你是谁?'
response, history = inference(model, template, query)
print(f'response: {response}')
print(f'history: {history}')

项目名称右键->NEW->Python File

inference_before.py文件创建成功

写入代码

运行写好的inference_before.py文件,等待三十几秒之后控制台输出问题答案(GPU方式要比CPU方式快很多):

加载本地glm模型

成功输出问题答案

LLM模型自我认知微调

在项目中创建一个inference_train.py文件,写入以下代码:

python 复制代码
import os
os.environ['CUDA_VISIBLE_DEVICES'] = '0'

from swift.llm import DatasetName, ModelType, SftArguments, sft_main

sft_args = SftArguments(
    model_type=ModelType.glm4_9b_chat,
    dataset=[f'{DatasetName.alpaca_zh}#500', f'{DatasetName.alpaca_en}#500',
             f'{DatasetName.self_cognition}#500'],
    max_length=1024,
    learning_rate=1e-4,
    output_dir='output',
    lora_target_modules=['ALL'],
    model_name=['张三', 'Zhang San'],
    model_author=['李四', 'LiSi'],
    device_map_config='0')
output = sft_main(sft_args)
best_model_checkpoint = output['best_model_checkpoint']
print(f'best_model_checkpoint: {best_model_checkpoint}')

项目名称右键->NEW->Python File

inference_train.py文件创建成功

写入代码

运行写好的inference_train.py文件,等待四十几分钟之后控制台输出微调后的模型目录(GPU方式要比CPU方式快的多的多):

开始自我认知微调训练

完成自我认知微调训练

LLM模型微调后推理

在项目中创建一个inference_after.py文件,写入以下代码:

python 复制代码
import os
os.environ['CUDA_VISIBLE_DEVICES'] = '0'

from swift.llm import (
    get_model_tokenizer, get_template, inference, ModelType, get_default_template_type,
)
from swift.utils import seed_everything
from swift.tuners import Swift

seed_everything(42)

ckpt_dir = 'output/glm4-9b-chat/v0-20241030-141255/checkpoint-93' #填写自己微调后的模型目录
model_type = ModelType.glm4_9b_chat
template_type = get_default_template_type(model_type)
model_id_or_path = None
model, tokenizer = get_model_tokenizer(model_type, model_id_or_path=model_id_or_path, model_kwargs={'device_map': 'cuda:0'})
model.generation_config.max_new_tokens = 128

model = Swift.from_pretrained(model, ckpt_dir, inference_mode=True)
template = get_template(template_type, tokenizer)

query = '你是谁?'
response, history = inference(model, template, query)
print(f'response: {response}')
print(f'history: {history}')

项目名称右键->NEW->Python File

inference_after.py文件创建成功

写入代码并修改模型目录

运行写好的inference_after.py文件,等待二十几秒之后控制台输出问题答案(GPU方式要比CPU方式快很多):

开始加载微调后的模型

成功输出微调后的问题答案

本次实践采用的是智普清言的glm4-9b-chat模型,也可以换成通义千问等其他的开源LLM模型。

注意:初次使用模型会先下载模型到本地,时间会长一点。

至此基于ModelScopems-swift框架使用GPU的方式进行的LLM模型的自我认知微调实践圆满完成。

相关推荐
AI架构师易筋14 分钟前
多模态 LLM 与本地多模态检索 PoC:从原理到工程落地(图片 / 视频关键帧 / LaTeX 公式)
人工智能·llm·多模态·多模态llm
且去填词13 小时前
DeepSeek API 深度解析:从流式输出、Function Calling 到构建拥有“手脚”的 AI 应用
人工智能·python·语言模型·llm·agent·deepseek
EdisonZhou14 小时前
MAF快速入门(11)并行工作流
llm·aigc·agent·.net core
进击的松鼠15 小时前
LangChain 实战 | 快速搭建 Python 开发环境
python·langchain·llm
悟乙己16 小时前
使用TimeGPT进行时间序列预测案例解析
机器学习·大模型·llm·时间序列·预测
智泊AI17 小时前
AI Agent 架构核心:如何构建多意图路由与动态查询分发引擎
llm
xiao5kou4chang6kai421 小时前
贯通LLM应用→数据分析→自动化编程→文献及知识管理→科研写作与绘图→构建本地LLM、Agent→多模型圆桌会议→N8N自动化工作流深度应用
人工智能·自动化·llm·科研绘图·n8n
Baihai_IDP21 小时前
Andrej Karpathy:2025 年 LLM 领域的六项范式转变
人工智能·面试·llm
彼岸花开了吗21 小时前
构建AI智能体:七十八、参数的艺术:如何在有限算力下实现高质量的AI诗歌创作
人工智能·python·llm
韦东东1 天前
行业资讯日报自动化:从采集到 LLM 生成的全链路拆解(以政务网站为例)
运维·人工智能·自动化·大模型·llm·政务·行业资讯