【昇腾开发全流程】AscendCL开发板模型推理

ascendcl · 浏览次数 : 0

小编点评

Sure. Here's the summary you requested: **ID of the successful model:** `model_id` **Description of the model:** `model_desc` **Printing the message:** ```python Init model resource success ``` **Getting the model description information:** ```python img_bgr = cv2.imread(pic_input) model_desc = acl.mdl.get_model_description(model_id) ``` **The rest of the output is irrelevant to the summary.**

正文

前言

学会如何安装配置华为云ModelArts、开发板Atlas 200I DK A2。
并打通一个Ascend910训练到Ascend310推理的全流程思路。

在本篇章,我们继续进入推理阶段!

推理阶段

B. 环境搭建

AscendCL 开发板 模型推理

Step1 准备硬件

  1. 基础硬件

    • 开发者套件
    • Micro SD 卡(TF卡):容量推荐不小于64GB
    • 读卡器
    • PC(笔记本或台式机)
  2. 所需配件
    用于后续连接启动&登录开发者套件。
    这里以远程登录模式为例

    • RJ45网线

注:
这里使用Windows系统,通过网线以远程登录模式连接启动登录开发者套件。
详细内容or选择其他系统其他模式的用户可参考昇腾官网文档-快熟开始

Step2 制卡

  1. PC下载并安装制卡工具“Ascend-devkit-imager_latest_win-x86_64.exe”

  2. 将SD卡插入读卡器的卡槽中,接着一起插入PC的USB接口中

  3. 打开制卡工具
    -> 在线制卡(镜像版本选择Ubuntu)
    -> 选择SD卡(烧录镜像时会自动将SD卡格式化,需要提前检查SD卡是否有数据需要提前备份)
    -> 烧录镜像(大概20min)

    烧录成功后,将SD卡从读卡器中取出。

Step3 连接启动开发者套件

  1. 将烧录好的SD卡插入开发者套件的SD插槽,
    并确保完全推入插槽底部。(推到底是有类似弹簧的触感)

  2. 确保开发者套件的拨码开关2、3、4的开关值如图所示:

  3. 使用网线连接开发板套件和PC。
    给开发者套件上电后

Step4 登录开发者套件

  1. 通过PC共享网络联网(Windows)
    控制面板 -> 网络和共享中心 -> 更改适配器设置 ->
    右键“WLAN” -> 属性 ->
    进入“共享”界面

    右键“以太网” -> 属性 ->
    进入“网络”界面 -> 双击“Internet 协议版本 4(TCP/IPv4)” -> 修改IP地址与子网掩码
    (PC需设置IP与开发板处于同一网段。这里使用192.168.137.102为例)

    确认保存。

  2. PC下载并解压SSH远程登录工具“MobaXterm_Personal_22.2.exe”(或者进入官网下载

  3. 打开SSH远程登录工具“MobaXterm_Personal_22.2.exe” -> Session -> SSH
    -> 填写实际与PC连接的开发者套件网口IP(制卡中配置的IP地址,默认为192.168.137.100)
    -> 勾选“Specify username”选项,填写用户名(这里使用root)

    -> Accept

    -> 输入root用户名登录密码(默认为Mind@123)
    输入密码时,界面不会显示密码和输入位数,输入密码后在键盘按Enter键即可

    -> 界面会出现保存密码提示,可以单击“No”,不保存密码直接登录开发者套件。

Step5 确认开发者套件成功联网

  1. 通过能否ping通进行检验网络
    输入
    ping 8.8.8.8
    或者
    ping www.baidu.com
    若回显如图所示,则说明开发者套件还未成功联网。


    请继续后续命令配置操作。

  2. 输入
    ip ro
    回显如下

  3. 删除多余的路由
    输入
    ip ro del default via 192.168.137.1
    添加丢失的路由
    输入
    sudo ip route add default via 192.168.137.102 dev eth1 metric 1
    注:这里填写的IP是前文控制面板中填写的IP地址

  4. 输入
    ip ro
    回显如下

  5. 通过能否ping通进行检验网络
    输入
    ping 8.8.8.8
    或者
    ping www.baidu.com
    若回显如图所示,则说明开发者套件已经成功联网。


    (若正确配置网络后仍无法联网,请参考昇腾官网文档-正确配置网络后仍无法联网

Step6 为开发者套件添加推理阶段项目工程文件

  1. 上传
    将推理阶段项目工程文件压缩包上传到开发者套套件
    (可以通过拖拽文件的方法上传到MobaXterm)

  2. 解压
    打开“Terminal”命令行终端界面 ->
    执行以下命令,解压项目工程文件压缩包
    unzip unet_sdk.zip
    unzip unet_cann.zip

  • 模型转换工程目录结构如下:

    ├── unet_sdk
        ├── model
        │   ├──air2om.sh                     // air模型转om脚本
        │   ├──xxx.air                       //训练阶段导出的air模型
        │   ├──aipp_unet_simple_opencv.cfg   // aipp文件
        │   ├──xxx.om                        //训练转换产生的om模型
    
  • 推理阶段工程目录结构如下:

    ├── unet_cann
        ├── main.py                       // 推理文件     
        ├── image.png                     //图片数据
        ├── mask.png                     //标签数据
    

注:
接下来就可以继续旅程,进入推理阶段。

若中途暂停或完成实验,记得将开发者套件关机和下电
若之后返回或继续实验,再次将开发者套件开机。

如果开发板下电断开连接,重新上电后PC不会主动再次连接,
需要更新状态(例如取消网络共享+再次共享)

七. 执行推理

Step1 acl推理脚本

  • 打开unet_cann/main.py文件
    内容如下,可根据实际开发情况进行修改。

    点击查看代码unet_cann/main.py文件
    #!/usr/bin/python
    # -*- coding: utf-8 -*-
    
    import cv2  # 图片处理三方库,用于对图片进行前后处理
    import numpy as np  # 用于对多维数组进行计算
    from albumentations.augmentations import transforms  # 数据增强库,用于对图片进行变换
    
    import acl  # acl 推理文件库
    
    
    def sigmoid(x):
        y = 1.0 / (1 + np.exp(-x))  # 对矩阵的每个元素执行 1/(1+e^(-x))
        return y
    
    
    def plot_mask(img, msk):
        """ 将推理得到的 mask 覆盖到原图上 """
        msk = msk + 0.5  # 将像素值范围变换到 0.5~1.5, 有利于下面转为二值图
        msk = cv2.resize(msk, (img.shape[1], img.shape[0]))  # 将 mask 缩放到原图大小
        msk = np.array(msk, np.uint8)  # 转为二值图, 只包含 0 和 1
    
        # 从 mask 中找到轮廓线, 其中第二个参数为轮廓检测的模式, 第三个参数为轮廓的近似方法
        # cv2.RETR_EXTERNAL 表示只检测外轮廓,  cv2.CHAIN_APPROX_SIMPLE 表示压缩水平方向、
        # 垂直方向、对角线方向的元素, 只保留该方向的终点坐标, 例如一个矩形轮廓只需要4个点来保存轮廓信息
        # contours 为返回的轮廓(list)
        contours, _ = cv2.findContours(msk, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
    
        # 在原图上画出轮廓, 其中 img 为原图, contours 为检测到的轮廓列表
        # 第三个参数表示绘制 contours 中的哪条轮廓, -1 表示绘制所有轮廓
        # 第四个参数表示颜色, (0, 0, 255)表示红色, 第五个参数表示轮廓线的宽度
        cv2.drawContours(img, contours, -1, (0, 0, 255), 1) 
    
        # 将轮廓线以内(即分割区域)覆盖上一层红色
        img[..., 2] = np.where(msk == 1, 255, img[..., 2])
    
        return img
    
    
    # 初始化变量
    pic_input = 'image.png'  # 单张图片
    model_path = "../unet_sdk/model/unet_hw960_bs1.om"  # 模型路径
    num_class = 2   # 类别数量, 需要根据模型结构、任务类别进行改变; 
    device_id = 0   # 指定运算的Device
    print("init resource stage:")
    
    
    # acl初始化
    ret = acl.init()
    ret = acl.rt.set_device(device_id)     # 指定运算的Device
    context, ret = acl.rt.create_context(device_id)      # 显式创建一个Context,用于管理Stream对象 
    stream, ret = acl.rt.create_stream()     # 显式创建一个Stream, 用于维护一些异步操作的执行顺序,确保按照应用程序中的代码调用顺序执行任务
    print("Init resource success")
    
    
    # 加载模型
    model_id, ret = acl.mdl.load_from_file(model_path)      # 加载离线模型文件, 返回标识模型的ID
    model_desc = acl.mdl.create_desc()     # 初始化模型描述信息, 包括模型输入个数、输入维度、输出个数、输出维度等信息
    ret = acl.mdl.get_desc(model_desc, model_id)      # 根据加载成功的模型的ID, 获取该模型的描述信息
    print("Init model resource success")
    
    
    img_bgr = cv2.imread(pic_input)  # 读入图片
    img = cv2.resize(img_bgr, (960,960))        # 将原图缩放到 960*960 大小
    img = transforms.Normalize().apply(img)      # 将像素值标准化(减去均值除以方差)
    img = img.astype('float32') / 255  # 将像素值缩放到 0~1 范围内
    img = img.transpose(2, 0, 1)  # 将形状转换为 channel first (3, 96, 96)
    
    
    # 准备输入数据集
    input_list = [img, ]  # 初始化输入数据列表
    input_num = acl.mdl.get_num_inputs(model_desc)  # 得到模型输入个数
    input_dataset = acl.mdl.create_dataset()    # 创建输入数据
    
    
    for i in range(input_num):
        input_data = input_list[i]  # 得到每个输入数据
    
        # 得到每个输入数据流的指针(input_ptr)和所占字节数(size)
        size = input_data.size * input_data.itemsize  # 得到所占字节数
        bytes_data=input_data.tobytes()  # 将每个输入数据转换为字节流
        input_ptr=acl.util.bytes_to_ptr(bytes_data)  # 得到输入数据指针
    
        model_size = acl.mdl.get_input_size_by_index(model_desc, i)  # 从模型信息中得到输入所占字节数
        # if size != model_size:  # 判断所分配的内存是否和模型的输入大小相符
        #     print(" Input[%d] size: %d not equal om size: %d" % (i, size, model_size) + ", may cause inference result error, please check model input")
    
        dataset_buffer = acl.create_data_buffer(input_ptr, size)  # 为每个输入创建 buffer
        _, ret = acl.mdl.add_dataset_buffer(input_dataset, dataset_buffer)  # 将每个 buffer 添加到输入数据中
    print("Create model input dataset success")
    
    
    
    # 准备输出数据集
    output_size = acl.mdl.get_num_outputs(model_desc)  # 得到模型输出个数
    output_dataset = acl.mdl.create_dataset()  # 创建输出数据
    
    
    for i in range(output_size):
        size = acl.mdl.get_output_size_by_index(model_desc, i)  # 得到每个输出所占内存大小
        buf, ret = acl.rt.malloc(size, 2)  # 为输出分配内存。
        dataset_buffer = acl.create_data_buffer(buf, size)  # 为每个输出创建 buffer
        _, ret = acl.mdl.add_dataset_buffer(output_dataset, dataset_buffer)  # 将每个 buffer 添加到输出数据中
        if ret:  # 若分配出现错误, 则释放内存
            acl.rt.free(buf)
            acl.destroy_data_buffer(dataset_buffer)
    print("Create model output dataset success")
    
    
    # 模型推理, 得到的输出将写入 output_dataset 中
    ret = acl.mdl.execute(model_id, input_dataset, output_dataset)
    
    
    # 解析 output_dataset, 得到模型输出列表
    model_output = [] # 模型输出列表
    for i in range(output_size):
        buf = acl.mdl.get_dataset_buffer(output_dataset, i)  # 获取每个输出buffer
        data_addr = acl.get_data_buffer_addr(buf)  # 获取输出buffer的地址
        size = int(acl.get_data_buffer_size(buf))  # 获取输出buffer的字节数
        byte_data = acl.util.ptr_to_bytes(data_addr, size)  # 将指针转为字节流数据
        dims = tuple(acl.mdl.get_output_dims(model_desc, i)[0]["dims"])  # 从模型信息中得到每个输出的维度信息
        output_data = np.frombuffer(byte_data, dtype=np.float32).reshape(dims)  # 将 output_data 以流的形式读入转化成 ndarray 对象
        model_output.append(output_data) # 添加到模型输出列表
    
    
    x0 = 2200  # w:2200~4000; h:1000~2800
    y0 = 1000
    x1 = 4000
    y1 = 2800
    ori_w = x1 - x0
    ori_h = y1 - y0
    
    
    def _process_mask(mask_path):
        # 手动裁剪
        mask = cv2.imread( mask_path , cv2.IMREAD_GRAYSCALE )
        # [y0:y1, x0:x1]
        return mask[y0:y1, x0:x1] 
    
    
    # 后处理
    model_out_msk = model_output[0]  # 取出模型推理结果, 推理结果形状为 (1, 1, 96, 96),即(batchsize, num_class, height, width)
    model_out_msk =  _process_mask("mask.png")  # 抠图后的shape, hw
    # model_out_msk = sigmoid(model_out_msk[0][0])  # 将模型输出变换到 0~1 范围内
    img_to_save = plot_mask(img_bgr, model_out_msk)  # 将处理后的输出画在原图上, 并返回
    
    
    # 保存图片到文件
    cv2.imwrite('result.png', img_to_save)  
    
    
    # 释放输出资源, 包括数据结构和内存
    num = acl.mdl.get_dataset_num_buffers(output_dataset)  # 获取输出个数
    for i in range(num):
        data_buf = acl.mdl.get_dataset_buffer(output_dataset, i)   # 获取每个输出buffer
        if data_buf:
            data_addr = acl.get_data_buffer_addr(data_buf)     # 获取buffer的地址
            acl.rt.free(data_addr)  # 手动释放 acl.rt.malloc 所分配的内存
            ret = acl.destroy_data_buffer(data_buf)  # 销毁每个输出buffer (销毁 aclDataBuffer 类型)
    ret = acl.mdl.destroy_dataset(output_dataset)  # 销毁输出数据 (销毁 aclmdlDataset类型的数据)
    
    
    # 卸载模型
    if model_id:
        ret = acl.mdl.unload(model_id)
    
    # 释放模型描述信息
    if model_desc:
        ret = acl.mdl.destroy_desc(model_desc)
    
    # 释放 stream
    if stream:
        ret = acl.rt.destroy_stream(stream)
    
    # 释放 Context
    if context:
        ret = acl.rt.destroy_context(context)
    
    # 释放Device
    acl.rt.reset_device(device_id)
    acl.finalize()
    print("Release acl resource success")
    
    

Step2 执行脚本

  1. 打开Terminal命令行终端界面:确保是否在工程目录unet_cann/路径下
    输入
    cd /root/project/unet_cann

  2. 运行示例
    输入
    python3 main.py

  • 输出结果:

注:
到此我们就已经走过了从Ascend910训练到Ascend310推理的昇腾开发全流程。
更多内容深入参考下方学习资源推荐

学习资源推荐

与【昇腾开发全流程】AscendCL开发板模型推理相似的内容:

【昇腾开发全流程】AscendCL开发板模型推理

学会如何安装配置华为云ModelArts、开发板Atlas 200I DK A2。 并打通一个Ascend910训练到Ascend310推理的全流程思路。 > 在本篇章,我们继续进入推理阶段!

【AI应用开发全流程】使用AscendCL开发板完成模型推理

从模型推理需要的开发板环境搭建到执行推理,本文主要是为大家介绍从Ascend910训练到Ascend310推理的昇腾开发全流程。

昇腾开发全流程 之 MindSpore华为云模型训练

学会如何安装配置华为云ModelArts、开发板Atlas 200I DK A2, 并打通一个训练到推理的全流程思路。 > 在本篇章,首先我们开始进入训练阶段!

MindStudio模型训练场景精度比对全流程和结果分析

摘要:MindStudio是一套基于华为昇腾AI处理器开发的AI全栈开发平台 本文分享自华为云社区《MindStudio模型训练场景精度比对全流程和结果分析》,作者:yd_247302088 。 一、基于MindStudio模型精度比对介绍 1.1 MindStudio介绍 MindStudio是一

一文详解TensorFlow模型迁移及模型训练实操步骤

摘要:本文介绍将TensorFlow网络模型迁移到昇腾AI平台,并执行训练的全流程。然后以TensorFlow 1.15训练脚本为例,详细介绍了自动迁移、手工迁移以及模型训练的操作步骤。 本文分享自华为云社区《将TensorFlow模型快速迁移到昇腾平台》,作者:昇腾CANN。 当前业界很多训练脚本

理论+实践,揭秘昇腾CANN算子开发

摘要: 本文介绍了CANN自定义算子开发的几种开发方式和算子的编译运行流程。然后以开发一个DSL Add算子为例,讲解算子开发的基本流程。 本文分享自华为云社区《昇腾CANN算子开发揭秘》,作者:昇腾CANN 。 开发者在利用昇腾硬件进行神经网络模型训练或者推理的过程中,可能会遇到以下场景: 训练场

深度解读昇腾CANN多流并行技术,提高硬件资源利用率

GE(Graph Engine)图引擎采用多流并行算法,在满足计算图任务内部依赖关系的前提下,支持高效并发执行计算任务,从而大大提高硬件资源利用率和AI计算效率。

手把手教你在昇腾平台上搭建PyTorch训练环境

摘要:在昇腾平台上运行PyTorch业务时,需要搭建异构计算架构CANN软件开发环境,并安装PyTorch 框架,从而实现训练脚本的迁移、开发和调试。 本文分享自华为云社区《手把手教你在昇腾平台上搭建PyTorch训练环境》,作者:昇腾CANN。 PyTorch是业界流行的深度学习框架,用于开发深度

昇腾CANN:为你开启机器人开发的Buff 加成

摘要:昇腾AI提供了全栈技术和产品,构筑人工智能的算力基座,赋能上层应用 本文分享自华为云社区《昇腾CANN:为你开启机器人开发的Buff 加成》,作者:华为云社区精选 。 昇腾AI基础软硬件平台 人类在最近1万多年的发展中,经历了农耕时代、蒸汽机时代、电力时代、互联网时代,21世纪,进入了人工智能

CANN 6.0来了,硬核技术抢先看

摘要:在华为全联接大会2022期间,华为正式官宣昇腾AI异构计算架构CANN 6.0版本将在年底正式发布。 本文分享自华为云社区《昇腾AI异构计算架构CANN 6.0全新开放升级,全面释放AI生产力》,作者: 昇腾CANN 。 在华为全联接大会2022期间,华为正式官宣昇腾AI异构计算架构CANN