手把手教你基于华为云,实现MindSpore模型训练

本文分享自华为云社区《【昇腾开发全流程】MindSpore华为云模型训练》,作者:沉迷sk。

前言

学会如何安装配置华为云ModelArts、开发板Atlas 200I DK A2。

并打通一个Ascend910训练到Ascend310推理的全流程思路。

训练阶段

A. 环境搭建

MindSpore 华为云 模型训练

Step1 创建OBS并行文件

登录华为云 -> 控制台 -> 左侧导航栏选择"对象存储服务 OBS" ->

在左侧导航栏选择"桶列表" -> 单击右上角"创建桶"

如下图所示:

在左侧列表中的"并行文件系统" -> 单击右上角"创建并行文件系统"。

如下图所示:

进行以下配置:

主要参数信息如下,其余配置请保持默认配置
区域 :选择"华北-北京四 "

文件系统名称:自定义,本例使用modelarts0009

(请使用modelarts作为文件系统前缀,注意名称为全局唯一)
数据冗余存储策略 :选择"单AZ存储 "
策略 :选择"私有"

Step2 上传数据文件至OBS并行文件系统

点击已创建的并行文件系统 -> 点击"新建文件夹"

输入文件夹的名称,这里命名为input

进入该文件夹中 -> 点击"上传文件":

将准备好的项目工程文件压缩包上传至该OBS中。

Step3 基于ModelArts创建Notebook编程环境

在"全局配置"页面查看是否已经配置授权,允许ModelArts访问OBS:

登录华为云 -> 控制台 -> 左侧导航栏选择"ModelArts" -> 在左侧导航栏选择"全局配置" -> 单击"添加授权"

首次使用ModelArts:直接选择"新增委托"中的"普通用户"权限

登录华为云 -> 控制台 -> 左侧导航栏选择"ModelArts" -> 在左侧导航栏选择"开发环境"-> "Notebook" -> 点击"创建"

进行以下配置:

主要参数信息如下,其余配置请保持默认配置

名称:自定义,本例使用notebook-test

自动停止:自行选择,本例选择4小时
镜像 :选择"公共镜像",并选择"mindspore_1.10.0-cann_6.0.1-py_3.7-euler_2.8.3 "

资源类型:选择"公共资源池"
磁盘规格 :使用50GB

Step4 为Notebook编程环境添加训练阶段项目工程文件

点击已创建的Notebook -> "存储配置" -> "添加数据存储"

进行以下配置:

本地挂载目录 :自定义创建本地挂载目录,本例使用**/data/input**
存储位置 :选择所创建的并行文件系统(本例选择已创建的moderarts0009 ),以及数据集所在的目录input

返回Notebook界面 -> 点击"打开"notebook-test ->

打开"Terminal"命令行终端界面 ->

执行以下命令,创建用于测试的test文件

touch /data/input/test

再执行以下命令,可以看到你刚创建的test文件&先前上传的文件

ls /data/input

上传

这里选择OBS文件上传

因为这里本地上传限制为100M文件。

解压

打开"Terminal"命令行终端界面 ->

执行以下命令,查看是否在正确的路径下

pwd

ls -l

执行以下命令,解压项目工程文件压缩包

(这里以工业质检Unet为例,具体代码可参考文末学习资源推荐

unzip unet.zip

unzip unet_sdk.zip

训练阶段 工程目录结构如下:

arduino 复制代码
├──unet
	├──data                            // 预处理后的数据集文件夹
	├──raw_data                        // 原始数据集
    ├──out_model                       // 模型导出保存文件夹
    ├──pred_visualization              // 可视化图片保存文件夹(需要自己创建)
    ├──src                             // 功能函数
    │   ├──unet_medical                   // U-Net网络
    │   ├──unet_nested                    // U-Net++网络
    │   ├──config.py                      // 配置文件
    │   ├──data_loader.py                 // 数据加载
    │   ├──eval_callback.py               // 训练时评估回调
    │   ├──loss.py                        // 损失函数
    │   ├──utils.py                       // 工具类函数
    ├──draw_result_folder.py           // 文件夹图片可视化
    ├──draw_result_single.py           // 单张图片可视化
    ├──eval.py                         // 模型验证
    ├──export.py                       // 模型导出,ckpt转air/mindir/onnx
    ├──postprocess.py                  // 后处理
    ├──preprocess.py                   // 前处理
    ├──preprocess_dataset.py           // 数据集预处理
    ├──train.py                        // 模型训练
    ├──requirements.txt

模型转换 工程目录结构如下:

arduino 复制代码
├── unet_sdk
    ├── model
    │   ├──air2om.sh                     // air模型转om脚本
    │   ├──xxx.air                       //训练阶段导出的air模型
    │   ├──aipp_unet_simple_opencv.cfg   // aipp文件

注:

接下来就可以开始旅程,进入训练阶段。

若中途暂停实验,记得做停止资源操作,消耗最少费用;

若返回继续实验,再次启动Notebook编程环境;

若完成了本实验,最后是释放资源操作,为了停止计费。

一. 配置文件参数和数据预处理

MindSpore 数据集预处理preprocess_dataset.py文件需调用如下脚本:

arduino 复制代码
文件参数脚本src/config.py文件。

文件参数脚本为src/config.py,包括

unet_medical,

unet_nested,

unet_nested_cell,

unet_simple,

unet_simple_coco

共5种配置,表示模型与数据集之间的组合。

包含超参数、数据集路径等文件参数

Step 运行脚本

新建NoteBook中:查看是否在工程目录unet/路径下

!pwd

进入NoteBook中:运行示例

!python3 preprocess_dataset.py --data_url=./data/

其中--data_url:数据集预处理后的保存路径。

预计数据集预处理所需时间约为10分钟。

预处理完的数据集会保存在/unet/data/文件夹下。

输出结果:

二. 模型训练

MindSpore模型训练 需调用如下脚本:

bash 复制代码
preprocess_dataset.py:将类coco数据集 转化成 模型训练需要数据格式。
src/unet_xxx/:存放 unet/unet++ 模型结构。
src/data_loader.py:存放 数据加载功能函数。
src/eval_callback:存放 cb 函数,用于训练过程中进行eval.
src/utils.py: mindspore 自定义 cb 函数,自定义 metrics 函数。
train.py

Step 运行脚本

进入NoteBook中:运行示例

!python train.py --data_url=./data/ --run_eval=True

其中--data_url: 数据集输入路径。

其中--run_eval: True 表示训练过程中同时进行验证。

预计模型训练所需时间约为36分钟。

输出结果:

三. 模型推理

MindSpore模型推理 需调用如下脚本:

bash 复制代码
src/unet_xxx/:存放unet/unet++模型结构。
src/data_loader.py:存放数据预处理,数据加载功能函数。
src/utils.py:mindspore自定义cb函数,自定义metrics函数。
eval.py

Step 运行脚本

进入NoteBook中:运行示例

!python eval.py --data_url=./data/ --ckpt_path=./ckpt_0/best.ckpt

其中--data_url:数据集输入路径。

其中--ckpt_path:ckpt 读取路径

预计模型推理所需时间约为2分钟。

输出结果:

注:

IOU(Intersection over Union)是一个度量函数,

用来描述两个物体边界框的重叠程度(取值范围为[0,1]),

重叠的区域越大,IOU值就越大。

四. 结果可视化

可以通过画图的方式将图像的结果可视化,方便查看。

可视化方法有两种。

方法一 单张图片可视化

draw_result_single.py:单张图片可视化

输出单张图片的裁剪画图结果crop_plot.png和模型预测的结果predict_plot.png。

Step 运行脚本

查看工程目录unet/路径下

确保已经事先创建好

可视化图片保存文件pred_visualization文件夹

进入NoteBook中:运行示例

!python draw_result_single.py --data_url=./data/SW1hZ2VfMjAyMTA3MjcxNTEzMzYzNzk --save_url=./pred_visualization --ckpt_path=./ckpt_0/best.ckpt

其中--data_url:数据集输入路径(到单张图像)。

其中--save_url:输出图像保存路径。

其中--ckpt_path:ckpt读取路径。

单张图片可视化所需时间约为1分钟。

可视化完的图片会保存在/unet/pred_visualization文件夹下。

输出结果:

方法二 文件夹图片可视化

draw_result_folder.py:文件夹图片可视化

输出文件夹内图片的模型预测结果predict.png。

Step 运行脚本

查看工程目录unet/路径下

确保已经事先创建好

可视化图片保存文件pred_visualization文件夹

进入NoteBook中:运行示例

!python draw_result_folder.py --data_url=./data/ --save_url=./pred_visualization --ckpt_path=./ckpt_0/best.ckpt

其中--data_url:数据集输入路径(到图像文件夹)。

其中--save_url:输出图像保存路径。

其中--ckpt_path:ckpt读取路径。

文件夹图片可视化所需时间约为10分钟。

可视化完的图片会保存在/unet/pred_visualization文件夹下。

输出结果:

五. 模型保存

如果想在昇腾AI处理器上执行推理,

可以通过网络定义和CheckPoint生成AIR格式模型文件。

Step 运行脚本

进入NoteBook中:运行示例

!python export.py --ckpt_file="./ckpt_0/best.ckpt" --width=960 --height=960 --file_name="out_model/unet_hw960_bs1" --file_format="AIR"

其中---ckpt_file: ckpt路径。

其中--width: 模型输入尺寸。

其中--height: 模型输入尺寸。

其中--file_name: 输出文件名。

其中--file_format: 输出格式,必须为["ONNX", "AIR", "MINDIR"]。

模型保存即导出模型的输出结果在out_model/unet_hw960_bs1.air

最后将导出的模型下载至本地,供后续推理阶段实验使用:

右键 -> Download

六. 模型转换

此处模型转换需要用到ATC工具。

详细内容&错误码请参考昇腾官网文档-使用ATC工具转换模型

Step1 上传air模型

将训练阶段实验模型保存的air模型上传至华为云ModelArts的unet_sdk/model/目录下

这里因为模型中有optype[ArgMaxD],因此需要在Ascend910系列芯片上执行模型转换才能成功。

(此次华为云ModelArts使用的正是Ascend910A)

而一般情况,模型训练完进行的模型转换是可以选择在开发者套件(Ascend310系列芯片)和Ubuntu系统中执行的。

(具体方法请参考昇腾官网文档-转换模型

Step2 模型转换命令

打开unet_sdk/model/air2om.sh文件

使用atc命令如下,可根据实际开发情况进行修改。

css 复制代码
atc --framework=1 --model=unet_hw960_bs1.air --output=unet_hw960_bs1 --input_format=NCHW --soc_version=Ascend910A --log=error --insert_op_conf=aipp_unet_simple_opencv.cfg

本实验将训练阶段 实验模型保存air模型 转为昇腾Al处理器支持的om格式离线模型

注意:air 模型转 om 只支持静态 batch,这里 batchsize=1。

其中--framework:原始框架类型。

其中--model:原始模型文件路径与文件名。

其中--output:转换后的离线模型的路径以及文件名。

其中--input_format:输入数据格式。

其中--soc_version:模型转换时指定芯片版本。

这句话指的是当前执行模型转换时候所在机器的芯片版本 ,可通过命令行终端输入npu-smi info查看)

其中--log:显示日志的级别。

其中--insert_op_conf:插入算子的配置文件路径与文件名,这里使用AIPP预处理配置文件,用于图像数据预处理。

Step3 运行脚本

确保在工程目录unet_sdk/model/路径下,首先查看文件权限

ls -l

(如果文件权限列中没有x,你才需要继续下一命令赋予它执行权限)

输入

chmod +x air2om.sh

运行示例

输入

./air2om.sh

输出结果:

注:

到此我们在华为云上使用MindSpore的训练阶段实验就结束了。

有了导出的air模型及其模型转换出的om模型,我们就可以继续进入下一篇章:AscendCL推理阶段

结束后记得及时关闭云上环境,避免资源浪费和产生额外的费用!!!

学习资源推荐

昇思官网

GitHub代码仓mindspore-ai / models
github.com/mindspore-a...

点击关注,第一时间了解华为云新鲜技术~

相关推荐
-Nemophilist-4 分钟前
机器学习与深度学习-1-线性回归从零开始实现
深度学习·机器学习·线性回归
成富39 分钟前
文本转SQL(Text-to-SQL),场景介绍与 Spring AI 实现
数据库·人工智能·sql·spring·oracle
程序员X小鹿1 小时前
全部免费!6款AI对口型神器,让照片开口说话唱歌,早晚用得上,建议收藏!(附保姆级教程)
aigc
CSDN云计算1 小时前
如何以开源加速AI企业落地,红帽带来新解法
人工智能·开源·openshift·红帽·instructlab
艾派森1 小时前
大数据分析案例-基于随机森林算法的智能手机价格预测模型
人工智能·python·随机森林·机器学习·数据挖掘
hairenjing11231 小时前
在 Android 手机上从SD 卡恢复数据的 6 个有效应用程序
android·人工智能·windows·macos·智能手机
真忒修斯之船1 小时前
大模型分布式训练并行技术(三)流水线并行
面试·llm·aigc
小蜗子1 小时前
Multi‐modal knowledge graph inference via media convergenceand logic rule
人工智能·知识图谱
SpikeKing1 小时前
LLM - 使用 LLaMA-Factory 微调大模型 环境配置与训练推理 教程 (1)
人工智能·llm·大语言模型·llama·环境配置·llamafactory·训练框架
黄焖鸡能干四碗2 小时前
信息化运维方案,实施方案,开发方案,信息中心安全运维资料(软件资料word)
大数据·人工智能·软件需求·设计规范·规格说明书