基于MindSpore NLP的PEFT微调

创建notebook

登录控制台

创建notebook

如果出现提示按如下操作

回到列表页面创建notebook参数如下:

配置mindnlp环境

打开GitHub - mindspore-lab/mindnlp: Easy-to-use and high-performance NLP and LLM framework based on MindSpore, compatible with models and datasets of 🤗Huggingface.链接进入主页看到简介

复制代码
Install from Pypi
You can install the official version of MindNLP which is uploaded to pypi.

pip install mindnlp
Daily build
You can download MindNLP daily wheel from here.

Install from source
To install MindNLP from source, please run:

pip install git+https://github.com/mindspore-lab/mindnlp.git
# or
git clone https://github.com/mindspore-lab/mindnlp.git
cd mindnlp
bash scripts/build_and_reinstall.sh

执行pip install mindnlp 会看到下面会有些版本冲突,不用理会

执行mindnlp脚本

复制代码
pip install git+https://github.com/mindspore-lab/mindnlp.git
# or
git clone https://github.com/mindspore-lab/mindnlp.git
cd mindnlp
bash scripts/build_and_reinstall.sh

如果你现在去页面打开notebook脚本你就会发现会提示Mindformers冲突

执行pip uninstall mindformers命令,删除依赖包,OK基础环境处理好了。

执行notebook开始训练

首先需要训练脚本,训练脚本可以参考mindnlp/llm/peft at master · mindspore-lab/mindnlp · GitHub目录下的脚本,下载到本地

跟着文档执行会发现如下提示选y继续执行

问题1

如果出现如下异常多重试几次

问题2

这是因为获取不到huggingface库导致的

解决

到huggingface官网下载数据集

数据集目录:https://huggingface.co/datasets/takala/financial_phrasebank

下载数据集,在终端目录/home/ma-user/work目录下执行代码git clone https://huggingface.co/datasets/takala/financial_phrasebank获取数据集。

开始训练模型

跟着脚本一路往下,会看到首先创建模型,然后加载数据集,加载token,最后训练,输入精度结果,报存模型加载模型。

使用ia3算法微调模型

使用GLUE-MRPC数据集

选取ia3数据集mindnlp/llm/peft/ia3/seq_2_seq/peft_ia3_mindnlp.ipynb at master · mindspore-lab/mindnlp · GitHub

在终端目录/home/ma-user/work目录下执行代码git clone https://huggingface.co/datasets/nyu-mll/glue获取数据集。

改变脚本参数

在之前lora_seq2seq.ipynb脚本的基础上改配置

修改配置

注意:注释掉之前lora的配置改成ia3的。

改变导入包

复制代码
# from mindnlp.peft import get_peft_model, LoraConfig, TaskType
from mindnlp.peft import get_peft_config, get_peft_model, get_peft_model_state_dict, LoraConfig, TaskType,IA3Config

改变配置

复制代码
# creating model
# peft_config = LoraConfig(task_type=TaskType.SEQ_2_SEQ_LM, inference_mode=False, r=8, lora_alpha=32, lora_dropout=0.1)
peft_config = IA3Config(task_type=TaskType.SEQ_2_SEQ_LM, inference_mode=False)

改变数据集

复制代码
# loading dataset
# dataset = load_dataset("financial_phrasebank", "sentences_allagree",cache_dir='/home/ma-user/work/financial_phrasebank/')

dataset = load_dataset("financial_phrasebank", "sentences_allagree",cache_dir='/home/ma-user/work/glue/mrpc')

开始训练

训练的结果差一点哪位大佬提供下思路看看如何调整

发布到昇思大模型平台

配置参数

总结

开始上手大模型,要求不高跑起来就好,关注我后续持续优化深度探讨模型。

最后

点赞关注评论一键三连,每周分享技术干货、开源项目、实战经验、国外优质文章翻译等,您的关注将是我的更新动力

引用

GitHub - mindspore-lab/mindnlp: Easy-to-use and high-performance NLP and LLM framework based on MindSpore, compatible with models and datasets of 🤗Huggingface.

昇思大模型平台

【第二课】昇腾+MindSpore+MindSpore NLP:极简风的大模型微调实战_哔哩哔哩_bilibili

相关推荐
Codebee9 分钟前
OoderAgent 企业版 2.0 发布的意义:一次生态战略的全面升级
人工智能
光泽雨41 分钟前
检测阈值 匹配阈值分析 金字塔
图像处理·人工智能·计算机视觉·机器视觉·smart3
Σίσυφος19001 小时前
PCL 法向量估计-PCA邻域点(经典 kNN 协方差)的协方差矩阵
人工智能·线性代数·矩阵
小鸡吃米…1 小时前
机器学习的商业化变现
人工智能·机器学习
sali-tec1 小时前
C# 基于OpenCv的视觉工作流-章22-Harris角点
图像处理·人工智能·opencv·算法·计算机视觉
2的n次方_1 小时前
ops-math 极限精度优化:INT8/INT4 基础运算的底层指令集映射与核函数复用
人工智能
AI袋鼠帝1 小时前
Claude4.5+Gemini3 接管电脑桌面,这回是真无敌了..
人工智能·windows·aigc
Lun3866buzha1 小时前
农业害虫检测_YOLO11-C3k2-EMSC模型实现与分类识别_1
人工智能·分类·数据挖掘
方见华Richard1 小时前
世毫九量子原住民教育理念全书
人工智能·经验分享·交互·原型模式·空间计算
忆~遂愿1 小时前
GE 引擎进阶:依赖图的原子性管理与异构算子协作调度
java·开发语言·人工智能