昇腾开发全流程 之 MindSpore华为云模型训练

mindspore · 浏览次数 : 0

小编点评

**数据集预处理** **1. 配置文件参数和数据预处理** * 创建文件 `src/config.py` 并添加配置文件参数。 * 使用 `src/config.py` 调用 `preprocess_dataset.py`脚本,将数据集路径传入。 **2. 模型训练** * 创建文件 `src/unet_xxx/`,其中 `xxx` 代表模型类型,例如 `unet_xxx_simple`。 * 创建文件 `src/data_loader.py`,实现数据加载功能。 * 创建文件 `src/eval_callback.py`,定义评估回调函数。 * 创建文件 `src/utils.py`,实现自定义回调函数和指标函数。 **3. 模型保存** * 确保模型训练完成后,保存模型输出结果到 `out_model/`目录下。 * 使用 `export.py` 生成模型的 AIR 格式离线模型。 **4. 模型转换** * 创建文件 `air2om.sh`,使用 `atc` 工具将 Air 模型转换为 om格式。 * 修改 `air2om.sh` 文件中指定的模型路径、输出路径、输入格式和芯片版本。 **5. 运行模型转换** * 使用 `bash` 命令在工程目录下运行 `air2om.sh` 文件。 **6. 模型推理** * 创建文件 `export.py`,将 Air 模型输出结果导出为 `out_model/unet_hw960_bs1.air`。 * 使用 AscendCL 工具加载模型,并进行推理。

正文

前言

学会如何安装配置华为云ModelArts、开发板Atlas 200I DK A2,
并打通一个训练到推理的全流程思路。

在本篇章,首先我们开始进入训练阶段!

训练阶段

A. 环境搭建

MindSpore 华为云 模型训练

Step1 创建OBS并行文件

  1. 登录华为云 -> 控制台 -> 左侧导航栏选择“对象存储服务 OBS” ->
    在左侧导航栏选择“桶列表” -> 单击右上角“创建桶”
    如下图所示:
  2. 在左侧列表中的“并行文件系统” -> 单击右上角“创建并行文件系统”。
    如下图所示:

    进行以下配置:
    image

主要参数信息如下,其余配置请保持默认配置
区域:选择“华北-北京四
文件系统名称:自定义,本例使用modelarts0009
(请使用modelarts作为文件系统前缀,注意名称为全局唯一)
数据冗余存储策略:选择“单AZ存储
策略:选择“私有

Step2 上传数据文件至OBS并行文件系统

  1. 点击已创建的并行文件系统 -> 点击“新建文件夹”
    输入文件夹的名称,这里命名为input
    image
  2. 进入该文件夹中 -> 点击“上传文件”:
    将准备好的项目工程文件压缩包上传至该OBS中。

Step3 基于ModelArts创建Notebook编程环境

  1. 在“全局配置”页面查看是否已经配置授权,允许ModelArts访问OBS:
    登录华为云 -> 控制台 -> 左侧导航栏选择“ModelArts” -> 在左侧导航栏选择“全局配置” -> 单击“添加授权”
    首次使用ModelArts:直接选择“新增委托”中的“普通用户”权限

  2. 登录华为云 -> 控制台 -> 左侧导航栏选择“ModelArts” -> 在左侧导航栏选择“开发环境”-> “Notebook” -> 点击“创建”
    进行以下配置:

主要参数信息如下,其余配置请保持默认配置
名称:自定义,本例使用notebook-test
自动停止:自行选择,本例选择4小时
镜像:选择“公共镜像”,并选择“mindspore_1.10.0-cann_6.0.1-py_3.7-euler_2.8.3
资源类型:选择“公共资源池”
磁盘规格:使用50GB

Step4 为Notebook编程环境添加训练阶段项目工程文件

  1. (这一步不需要)
    点击已创建的Notebook -> “存储配置” -> “添加数据存储”
    进行以下配置:
    image

本地挂载目录:自定义创建本地挂载目录,本例使用/data/input
存储位置:选择所创建的并行文件系统(本例选择已创建的moderarts0009),以及数据集所在的目录input

  1. 返回Notebook界面 -> 点击“打开”notebook-test ->
    打开“Terminal”命令行终端界面 ->
    执行以下命令,创建用于测试的test文件
    touch /data/input/test
    再执行以下命令,可以看到你刚创建的test文件&先前上传的文件
    ls /data/input

  2. 上传
    这里选择OBS文件上传
    因为这里本地上传限制为100M文件。

  3. 解压
    打开“Terminal”命令行终端界面 ->
    执行以下命令,查看是否在正确的路径下
    pwd
    ls -l
    执行以下命令,解压项目工程文件压缩包
    (这里以工业质检Unet为例,具体代码可参考文末学习资源推荐
    unzip unet.zip
    unzip unet_sdk.zip

  • 训练阶段工程目录结构如下:
    ├──unet
    	├──data                            // 预处理后的数据集文件夹
    	├──raw_data                        // 原始数据集
        ├──out_model                       // 模型导出保存文件夹
        ├──pred_visualization              // 可视化图片保存文件夹(需要自己创建)
        ├──src                             // 功能函数
        │   ├──unet_medical                   // U-Net网络
        │   ├──unet_nested                    // U-Net++网络
        │   ├──config.py                      // 配置文件
        │   ├──data_loader.py                 // 数据加载
        │   ├──eval_callback.py               // 训练时评估回调
        │   ├──loss.py                        // 损失函数
        │   ├──utils.py                       // 工具类函数
        ├──draw_result_folder.py           // 文件夹图片可视化
        ├──draw_result_single.py           // 单张图片可视化
        ├──eval.py                         // 模型验证
        ├──export.py                       // 模型导出,ckpt转air/mindir/onnx
        ├──postprocess.py                  // 后处理
        ├──preprocess.py                   // 前处理
        ├──preprocess_dataset.py           // 数据集预处理
        ├──train.py                        // 模型训练
        ├──requirements.txt
    
  • 模型转换工程目录结构如下:
    ├── unet_sdk
        ├── model
        │   ├──air2om.sh                     // air模型转om脚本
        │   ├──xxx.air                       //训练阶段导出的air模型
        │   ├──aipp_unet_simple_opencv.cfg   // aipp文件
    

注:
接下来就可以开始旅程,进入训练阶段。

若中途暂停实验,记得做停止资源操作,消耗最少费用;
若返回继续实验,再次启动Notebook编程环境;
若完成了本实验,最后是释放资源操作,为了停止计费。

一. 配置文件参数和数据预处理

MindSpore 数据集预处理preprocess_dataset.py文件需调用如下脚本:

文件参数脚本src/config.py文件。

文件参数脚本为src/config.py,包括
unet_medical,
unet_nested,
unet_nested_cell,
unet_simple,
unet_simple_coco
共5种配置,表示模型与数据集之间的组合。
包含超参数、数据集路径等文件参数

Step 运行脚本

  1. 新建NoteBook中:查看是否在工程目录unet/路径下
    !pwd

  2. 进入NoteBook中:运行示例
    !python3 preprocess_dataset.py --data_url=./data/
    其中--data_url:数据集预处理后的保存路径。

  • 预计数据集预处理所需时间约为10分钟。
    预处理完的数据集会保存在/unet/data/文件夹下。
    输出结果:

二. 模型训练

MindSpore模型训练 需调用如下脚本:

preprocess_dataset.py:将类coco数据集 转化成 模型训练需要数据格式。
src/unet_xxx/:存放 unet/unet++ 模型结构。
src/data_loader.py:存放 数据加载功能函数。
src/eval_callback:存放 cb 函数,用于训练过程中进行eval.
src/utils.py: mindspore 自定义 cb 函数,自定义 metrics 函数。
train.py

Step 运行脚本

  1. 进入NoteBook中:运行示例
    !python train.py --data_url=./data/ --run_eval=True
    其中--data_url: 数据集输入路径。
    其中--run_eval: True 表示训练过程中同时进行验证。
  • 预计模型训练所需时间约为36分钟。
    输出结果:

三. 模型推理

MindSpore模型推理 需调用如下脚本:

src/unet_xxx/:存放unet/unet++模型结构。
src/data_loader.py:存放数据预处理,数据加载功能函数。
src/utils.py:mindspore自定义cb函数,自定义metrics函数。
eval.py

Step 运行脚本

  1. 进入NoteBook中:运行示例
    !python eval.py --data_url=./data/ --ckpt_path=./ckpt_0/best.ckpt
    其中--data_url:数据集输入路径。
    其中--ckpt_path:ckpt 读取路径
  • 预计模型推理所需时间约为2分钟。
    输出结果:


    注:
    IOU(Intersection over Union)是一个度量函数,
    用来描述两个物体边界框的重叠程度(取值范围为[0,1]),
    重叠的区域越大,IOU值就越大。

四. 结果可视化

可以通过画图的方式将图像的结果可视化,方便查看。
可视化方法有两种。

方法一 单张图片可视化

draw_result_single.py:单张图片可视化
输出单张图片的裁剪画图结果crop_plot.png和模型预测的结果predict_plot.png。

Step 运行脚本

  1. 查看工程目录unet/路径下
    确保已经事先创建好
    可视化图片保存文件pred_visualization文件夹

  2. 进入NoteBook中:运行示例
    !python draw_result_single.py --data_url=./data/SW1hZ2VfMjAyMTA3MjcxNTEzMzYzNzk --save_url=./pred_visualization --ckpt_path=./ckpt_0/best.ckpt
    其中--data_url:数据集输入路径(到单张图像)。
    其中--save_url:输出图像保存路径。
    其中--ckpt_path:ckpt读取路径。

  • 单张图片可视化所需时间约为1分钟。
    可视化完的图片会保存在/unet/pred_visualization文件夹下。
    输出结果:


方法二 文件夹图片可视化

draw_result_folder.py:文件夹图片可视化
输出文件夹内图片的模型预测结果predict.png。

Step 运行脚本

  1. 查看工程目录unet/路径下
    确保已经事先创建好
    可视化图片保存文件pred_visualization文件夹

  2. 进入NoteBook中:运行示例
    !python draw_result_folder.py --data_url=./data/ --save_url=./pred_visualization --ckpt_path=./ckpt_0/best.ckpt
    其中--data_url:数据集输入路径(到图像文件夹)。
    其中--save_url:输出图像保存路径。
    其中--ckpt_path:ckpt读取路径。

  • 文件夹图片可视化所需时间约为10分钟。
    可视化完的图片会保存在/unet/pred_visualization文件夹下。
    输出结果:

五. 模型保存

如果想在昇腾AI处理器上执行推理,
可以通过网络定义和CheckPoint生成AIR格式模型文件。

Step 运行脚本

  1. 进入NoteBook中:运行示例
    !python export.py --ckpt_file="./ckpt_0/best.ckpt" --width=960 --height=960 --file_name="out_model/unet_hw960_bs1" --file_format="AIR"
    其中–-ckpt_file: ckpt路径。
    其中--width: 模型输入尺寸。
    其中--height: 模型输入尺寸。
    其中--file_name: 输出文件名。
    其中--file_format: 输出格式,必须为[“ONNX”, “AIR”, “MINDIR”]。
  • 模型保存即导出模型的输出结果在out_model/unet_hw960_bs1.air
    最后将导出的模型下载至本地,供后续推理阶段实验使用:
    右键 -> Download

六. 模型转换

此处模型转换需要用到ATC工具。
详细内容&错误码请参考昇腾官网文档-使用ATC工具转换模型

Step1 上传air模型

  • 将训练阶段实验模型保存的air模型上传至华为云ModelArts的unet_sdk/model/目录下

这里因为模型中有optype[ArgMaxD],因此需要在Ascend910系列芯片上执行模型转换才能成功。
(此次华为云ModelArts使用的正是Ascend910A)
而一般情况,模型训练完进行的模型转换是可以选择在开发者套件(Ascend310系列芯片)和Ubuntu系统中执行的。
(具体方法请参考昇腾官网文档-转换模型

Step2 模型转换命令

  • 打开unet_sdk/model/air2om.sh文件
    使用atc命令如下,可根据实际开发情况进行修改。
atc --framework=1 --model=unet_hw960_bs1.air --output=unet_hw960_bs1 --input_format=NCHW --soc_version=Ascend910A --log=error --insert_op_conf=aipp_unet_simple_opencv.cfg

本实验将训练阶段实验模型保存air模型转为昇腾Al处理器支持的om格式离线模型
注意:air 模型转 om 只支持静态 batch,这里 batchsize=1。
其中--framework:原始框架类型。
其中--model:原始模型文件路径与文件名。
其中--output:转换后的离线模型的路径以及文件名。
其中--input_format:输入数据格式。
其中--soc_version:模型转换时指定芯片版本。
这句话指的是当前执行模型转换时候所在机器的芯片版本,可通过命令行终端输入npu-smi info查看)

其中--log:显示日志的级别。
其中--insert_op_conf:插入算子的配置文件路径与文件名,这里使用AIPP预处理配置文件,用于图像数据预处理。

Step3 运行脚本

  1. 确保在工程目录unet_sdk/model/路径下,首先查看文件权限
    ls -l
    (如果文件权限列中没有x,你才需要继续下一命令赋予它执行权限)
    输入
    chmod +x air2om.sh

  2. 运行示例
    输入
    ./air2om.sh

  • 输出结果:

注:
到此我们在华为云上使用MindSpore的训练阶段实验就结束了。
有了导出的air模型及其模型转换出的om模型,我们就可以继续进入下一篇章:AscendCL推理阶段

结束后记得及时关闭云上环境,避免资源浪费和产生额外的费用!!!

学习资源推荐

与昇腾开发全流程 之 MindSpore华为云模型训练相似的内容:

昇腾开发全流程 之 MindSpore华为云模型训练

学会如何安装配置华为云ModelArts、开发板Atlas 200I DK A2, 并打通一个训练到推理的全流程思路。 > 在本篇章,首先我们开始进入训练阶段!

【昇腾开发全流程】AscendCL开发板模型推理

学会如何安装配置华为云ModelArts、开发板Atlas 200I DK A2。 并打通一个Ascend910训练到Ascend310推理的全流程思路。 > 在本篇章,我们继续进入推理阶段!

【AI应用开发全流程】使用AscendCL开发板完成模型推理

从模型推理需要的开发板环境搭建到执行推理,本文主要是为大家介绍从Ascend910训练到Ascend310推理的昇腾开发全流程。

MindStudio模型训练场景精度比对全流程和结果分析

摘要:MindStudio是一套基于华为昇腾AI处理器开发的AI全栈开发平台 本文分享自华为云社区《MindStudio模型训练场景精度比对全流程和结果分析》,作者:yd_247302088 。 一、基于MindStudio模型精度比对介绍 1.1 MindStudio介绍 MindStudio是一

一文详解TensorFlow模型迁移及模型训练实操步骤

摘要:本文介绍将TensorFlow网络模型迁移到昇腾AI平台,并执行训练的全流程。然后以TensorFlow 1.15训练脚本为例,详细介绍了自动迁移、手工迁移以及模型训练的操作步骤。 本文分享自华为云社区《将TensorFlow模型快速迁移到昇腾平台》,作者:昇腾CANN。 当前业界很多训练脚本

理论+实践,揭秘昇腾CANN算子开发

摘要: 本文介绍了CANN自定义算子开发的几种开发方式和算子的编译运行流程。然后以开发一个DSL Add算子为例,讲解算子开发的基本流程。 本文分享自华为云社区《昇腾CANN算子开发揭秘》,作者:昇腾CANN 。 开发者在利用昇腾硬件进行神经网络模型训练或者推理的过程中,可能会遇到以下场景: 训练场

深度解读昇腾CANN多流并行技术,提高硬件资源利用率

GE(Graph Engine)图引擎采用多流并行算法,在满足计算图任务内部依赖关系的前提下,支持高效并发执行计算任务,从而大大提高硬件资源利用率和AI计算效率。

手把手教你在昇腾平台上搭建PyTorch训练环境

摘要:在昇腾平台上运行PyTorch业务时,需要搭建异构计算架构CANN软件开发环境,并安装PyTorch 框架,从而实现训练脚本的迁移、开发和调试。 本文分享自华为云社区《手把手教你在昇腾平台上搭建PyTorch训练环境》,作者:昇腾CANN。 PyTorch是业界流行的深度学习框架,用于开发深度

昇腾CANN:为你开启机器人开发的Buff 加成

摘要:昇腾AI提供了全栈技术和产品,构筑人工智能的算力基座,赋能上层应用 本文分享自华为云社区《昇腾CANN:为你开启机器人开发的Buff 加成》,作者:华为云社区精选 。 昇腾AI基础软硬件平台 人类在最近1万多年的发展中,经历了农耕时代、蒸汽机时代、电力时代、互联网时代,21世纪,进入了人工智能

CANN 6.0来了,硬核技术抢先看

摘要:在华为全联接大会2022期间,华为正式官宣昇腾AI异构计算架构CANN 6.0版本将在年底正式发布。 本文分享自华为云社区《昇腾AI异构计算架构CANN 6.0全新开放升级,全面释放AI生产力》,作者: 昇腾CANN 。 在华为全联接大会2022期间,华为正式官宣昇腾AI异构计算架构CANN