LabVIEW中使用unet快速实现图像分割

‍‍🏡博客主页: virobotics(仪酷智能):LabVIEW深度学习、人工智能博主

🍻本文由virobotics(仪酷智能)原创首发

🥳欢迎大家关注✌点赞👍收藏⭐留言📝

前言

Hello,大家好,我是virobotics(仪酷智能),一个深耕于LabVIEW和人工智能领域的开发工程师。

今天我们一起来学习一下在LabVIEW中部署Unet模型,实现图像分割。


一、Unet简介

Unet是一种用于图像分割的深度学习模型,其名称源自其U形的网络结构。最初由Olaf Ronneberger、Philipp Fischer和Thomas Brox在2015年的论文《U-Net: Convolutional Networks for Biomedical Image Segmentation》中提出,旨在解决生物医学图像分割的问题。

U-Net 起源于医疗图像分割,整个网络是标准的encoder-decoder网络,特点是参数少,计算快,应用性强,对于一般场景适应度很高。原始U-Net的结构如下图所示,由于网络整体结构类似于大写的英文字母U,故得名U-net。左侧可视为一个编码器,右侧可视为一个解码器。编码器有四个子模块,每个子模块包含两个卷积层,每个子模块之后通过max pool进行下采样。由于卷积使用的是valid模式,故实际输出比输入图像小一些。具体来说,后一个子模块的分辨率=(前一个子模块的分辨率-4)/2。U-Net使用了Overlap-tile 策略用于补全输入图像的上下信息,使得任意大小的输入图像都可获得无缝分割。同样解码器也包含四个子模块,分辨率通过上采样操作依次上升,直到与输入图像的分辨率基本一致。该网络还使用了跳跃连接,以拼接的方式将解码器和编码器中相同分辨率的feature map进行特征融合,帮助解码器更好地恢复目标的细节。 与传统的基于机器学习的图像分割方法相比,Unet具有更好的性能和更高的鲁棒性。在医学影像分割方面,Unet已被用于分割肝脏、肺部、乳腺、心脏和脑部等器官。

医疗影像分割的案例部署可查看博文:blog.csdn.net/virobotics/...

unet优缺点

  • 优点:模型较为简单,对于某一特定类型分割比较清楚
  • 缺点:网络无法提取太多特征,导致对输入图片的要求比较高(如周围环境、背景等。例如本案例中仅对数据集中的车辆能够较好地分割)

二、环境搭建

2.1 部署本项目时所用环境

  • 操作系统:Windows10
  • python:3.6及以上
  • LabVIEW:2018及以上 64位版本
  • AI视觉工具包:techforce_lib_opencv_cpu-1.0.0.98.vip
  • onnx工具包:virobotics_lib_onnx_cuda_tensorrt-1.0.0.16.vip【1.0.0.16及以上版本】或virobotics_lib_onnx_cpu-1.13.1.2.vip

2.2 LabVIEW工具包下载及安装网址


三、LabVIEW调用Unet实现图像分割

3.1 pytorch unet模型的获取

我们已经给大家准备了Unet模型,可以直接使用~ 当然,如果读者想要自己下载模型并转换为onnx模型,那可以按照如下方式下载

将下载好的pth转为onnx(toonnx.py)

python 复制代码
#!/usr/bin/python3

import torch
from unet import UNet


def parseToOnnx():

    net = UNet(n_channels=3, n_classes=2, bilinear=False)
    net.load_state_dict(
        torch.load('unet_carvana_scale0.5_epoch2.pth',
                   map_location=torch.device('cpu')))

    print(net.eval())

    batch_size, channels, height, width = 1, 3, 480, 640
    inputs = torch.randn((batch_size, channels, height, width))

    outputs = net(inputs)
    assert outputs.shape[0] == batch_size
    assert not torch.isnan(outputs).any(), 'Output included NaNs'

    torch.onnx.export(
        net,  # model being run
        inputs,  # model input (or a tuple for multiple inputs)
        "unet.onnx",  # where to save the model (can be a file or file-like   object)
        export_params=
        True,  # store the trained parameter weights inside the model     file
        opset_version=11,  # the ONNX version to export the model to
        do_constant_folding=
        False,  # whether to execute constant folding for optimization
        input_names=['inputs'],  # the model's input names
        output_names=['outputs'],  # the model's output names
        #dynamic_axes={
         #   'inputs': {
          #      0: 'batch_size'
           # },  # variable lenght axes
            #'outputs': {
             #   0: 'batch_size'
            #}
        #}
    )

    print("ONNX model conversion is complete.")
    return
parseToOnnx()

如果你想要自己训练模型,则可在官方网站下载数据集(温馨提示:数据集有点大哦)

官方数据集:www.kaggle.com/c/carvana-i...

3.2 查看模型输出输出

打开netron.app,载入本地onnx模型,我们可以看到模型的输入输出

我们查看模型的输入shape,是因为推理过程Run_one_input.vi需要输入shape,不过我们也可以使用GetInputInfo.vi来直接获取模型输入的shape

3.3 实现图像分割(unet.vi

实现源码: 运行结果:

四、项目源码

如需LabVIEW源码,可查看:blog.csdn.net/virobotics/...


总结

以上就是今天要给大家分享的内容,希望对大家有用。我们下篇文章见~

如您想要探讨更多关于LabVIEW与人工智能技术,欢迎加入我们的技术交流群:705637299。进群请备注:LabVIEW机器视觉

如果文章对你有帮助,欢迎✌关注、👍点赞、✌收藏、👍订阅专栏

相关推荐
张张123y1 分钟前
#Transformer架构与微调技术深度解析
深度学习·架构·transformer
Tina姐8 分钟前
在 3D Slicer 中使用 Crop Volume 高效裁剪与重采样,提升分割、配准与深度学习处理效率
人工智能·深度学习
SuniaWang9 分钟前
《Spring AI + 大模型全栈实战》学习手册系列· 专题二:《Milvus 向量数据库:从零开始搭建 RAG 系统的核心组件》
java·人工智能·分布式·后端·spring·架构·typescript
QQsuccess10 分钟前
AI全体系保姆级详讲——第一部分:了解AI基本定义
人工智能·算法
科技新芯13 分钟前
当AI龙虾接管购物车,Bidnex用CPS重构数字广告的信任基石
人工智能·重构
跨境卫士—小依17 分钟前
标题与卖点不聚焦如何重构核心卖点逻辑
大数据·人工智能·跨境电商·亚马逊·营销策略
剑穗挂着新流苏31217 分钟前
104_PyTorch 数据心脏:DataLoader 的深度解析与实战
深度学习·神经网络
xin_yao_xin21 分钟前
PaddleOCR系列——《文本检测、文本识别》模型训练
人工智能·python·paddlepaddle·ppocr
落地加湿器30 分钟前
ReAct源码解读-一轮循环
人工智能·智能体·react框架·源码解读
液态不合群42 分钟前
OpenCV多线程编程:从单线程到多线程的视频处理
人工智能·opencv·音视频