4.8 构建onnx结构模型-Less

前言

构建onnx方式通常有两种:

1、通过代码转换成onnx结构,比如pytorch ---> onnx

2、通过onnx 自定义结点,图,生成onnx结构

本文主要是简单学习和使用两种不同onnx结构,

下面以 Less 结点进行分析

方式

方法一:pytorch --> onnx

暂缓,主要研究方式二

方法二: onnx

cpp 复制代码
import onnx 
from onnx import TensorProto, helper, numpy_helper
import numpy as np

def run():
    print("run start....\n")

    less = helper.make_node(
        "Less",
        name="Less_0",
        inputs=["input1", "input2"],
        outputs=["output1"],
    )
    input1_data = np.load("./tensor.npy") # 16, 397
    # input1_data = np.load("./data.npy")  # 16, 398 test
    # print(f"input1_data shape:{input1_data.shape}\n")
    # input1_data = np.zeros((16,398))
    initializer = [ 
        helper.make_tensor("input1", TensorProto.FLOAT, [16,397], input1_data)
    ]

    cast_nodel = helper.make_node(
            op_type="Cast",
            inputs=["output1"],
            outputs=["output2"],
            name="test_cast",
            to=TensorProto.FLOAT,
        )
    value_info = helper.make_tensor_value_info(
            "output2", TensorProto.BOOL, [16,397])

    graph = helper.make_graph(
        nodes=[less, cast_nodel],
        name="test_graph",
        inputs=[helper.make_tensor_value_info(
            "input2", TensorProto.FLOAT, [16,1]
        )],
        outputs=[helper.make_tensor_value_info(
            "output2",TensorProto.FLOAT, [16,397]
        )],
        initializer=initializer,
        value_info=[value_info],
    )

    op = onnx.OperatorSetIdProto()
    op.version = 11
    model = helper.make_model(graph, opset_imports=[op])
    model.ir_version = 8
    print("run done....\n")
    return model

if __name__ == "__main__":
    model = run()
    onnx.save(model, "./test_less_ori.onnx")

run

cpp 复制代码
import onnx
import onnxruntime
import numpy as np


# 检查onnx计算图
def check_onnx(mdoel):
    onnx.checker.check_model(model)
    # print(onnx.helper.printable_graph(model.graph))

def run(model):
    print(f'run start....\n')
    session = onnxruntime.InferenceSession(model,providers=['CPUExecutionProvider'])
    input_name1 = session.get_inputs()[0].name  
    input_data1= np.random.randn(16,1).astype(np.float32)
    print(f'input_data1 shape:{input_data1.shape}\n')

    output_name1 = session.get_outputs()[0].name

    pred_onx = session.run(
    [output_name1], {input_name1: input_data1})[0]

    print(f'pred_onx shape:{pred_onx.shape} \n')

    print(f'run end....\n')


if __name__ == '__main__':
    path = "./test_less_ori.onnx"
    model = onnx.load("./test_less_ori.onnx")
    check_onnx(model)
    run(path)
相关推荐
电商API_1800790524712 小时前
淘宝商品评论数据获取指南|批量自动化|api应用
java·爬虫·spring·性能优化·自动化
空中海13 小时前
MyBatis 知识框架图、性能优化与面试题
性能优化·mybatis
江南十四行14 小时前
Python性能优化完全指南——剖析、缓存与C扩展
python·缓存·性能优化
zxrhhm15 小时前
PostgreSQL 分页性能优化 FETCH WITH TIES 与传统 LIMIT/OFFSET 的对比
数据库·postgresql·性能优化
剑神一笑15 小时前
Linux find 命令深度解析:从递归遍历到性能优化的完整实现
linux·运维·性能优化
Hello--_--World15 小时前
React:解释什么是虚拟Dom?它的工作原理及其性能优化机制,深入理解 JSX、如何理解 UI = f(state)?
react.js·ui·性能优化
小短腿的代码世界15 小时前
QCefView深度解析:在Qt中嵌入Chromium的架构设计与性能优化实战
开发语言·qt·性能优化
不会编程的懒洋洋16 小时前
WPF 性能优化+异步+渲染
开发语言·笔记·性能优化·c#·wpf·图形渲染·线程
Edylan2 天前
Android内存的全面分析-让你吃透
性能优化·架构