4.8 构建onnx结构模型-Less

前言

构建onnx方式通常有两种:

1、通过代码转换成onnx结构,比如pytorch ---> onnx

2、通过onnx 自定义结点,图,生成onnx结构

本文主要是简单学习和使用两种不同onnx结构,

下面以 Less 结点进行分析

方式

方法一:pytorch --> onnx

暂缓,主要研究方式二

方法二: onnx

cpp 复制代码
import onnx 
from onnx import TensorProto, helper, numpy_helper
import numpy as np

def run():
    print("run start....\n")

    less = helper.make_node(
        "Less",
        name="Less_0",
        inputs=["input1", "input2"],
        outputs=["output1"],
    )
    input1_data = np.load("./tensor.npy") # 16, 397
    # input1_data = np.load("./data.npy")  # 16, 398 test
    # print(f"input1_data shape:{input1_data.shape}\n")
    # input1_data = np.zeros((16,398))
    initializer = [ 
        helper.make_tensor("input1", TensorProto.FLOAT, [16,397], input1_data)
    ]

    cast_nodel = helper.make_node(
            op_type="Cast",
            inputs=["output1"],
            outputs=["output2"],
            name="test_cast",
            to=TensorProto.FLOAT,
        )
    value_info = helper.make_tensor_value_info(
            "output2", TensorProto.BOOL, [16,397])

    graph = helper.make_graph(
        nodes=[less, cast_nodel],
        name="test_graph",
        inputs=[helper.make_tensor_value_info(
            "input2", TensorProto.FLOAT, [16,1]
        )],
        outputs=[helper.make_tensor_value_info(
            "output2",TensorProto.FLOAT, [16,397]
        )],
        initializer=initializer,
        value_info=[value_info],
    )

    op = onnx.OperatorSetIdProto()
    op.version = 11
    model = helper.make_model(graph, opset_imports=[op])
    model.ir_version = 8
    print("run done....\n")
    return model

if __name__ == "__main__":
    model = run()
    onnx.save(model, "./test_less_ori.onnx")

run

cpp 复制代码
import onnx
import onnxruntime
import numpy as np


# 检查onnx计算图
def check_onnx(mdoel):
    onnx.checker.check_model(model)
    # print(onnx.helper.printable_graph(model.graph))

def run(model):
    print(f'run start....\n')
    session = onnxruntime.InferenceSession(model,providers=['CPUExecutionProvider'])
    input_name1 = session.get_inputs()[0].name  
    input_data1= np.random.randn(16,1).astype(np.float32)
    print(f'input_data1 shape:{input_data1.shape}\n')

    output_name1 = session.get_outputs()[0].name

    pred_onx = session.run(
    [output_name1], {input_name1: input_data1})[0]

    print(f'pred_onx shape:{pred_onx.shape} \n')

    print(f'run end....\n')


if __name__ == '__main__':
    path = "./test_less_ori.onnx"
    model = onnx.load("./test_less_ori.onnx")
    check_onnx(model)
    run(path)
相关推荐
张永清-老清10 小时前
每周读书与学习->JMeter性能测试脚本编写实战(二)- 前一个请求返回的结果作为后一个请求的入参
学习·jmeter·性能优化·性能测试·性能调优·jmeter性能测试·每周读书与学习
ironinfo15 小时前
C#性能优化随记
开发语言·性能优化·c#
长河15 小时前
Record-API 性能优化实战:从“锁”到“快”的深度治理
数据库·性能优化
拾忆,想起16 小时前
Dubbo序列化方式全解析:从原理到实战的性能优化指南
服务器·网络·微服务·性能优化·架构·dubbo
灵犀坠16 小时前
前端知识体系全景:从跨域到性能优化的核心要点解析
前端·javascript·vue.js·性能优化·uni-app·vue
safestar201218 小时前
Elasticsearch性能优化实战:从GB到PB级数据的性能演进之路
大数据·elasticsearch·性能优化
2501_9159184118 小时前
iOS 开发者工具全景指南,构建高效开发、调试与性能优化的多工具工作体系
android·ios·性能优化·小程序·uni-app·iphone·webview
二哈喇子!18 小时前
昇腾平台 vLLM 部署与性能优化实战:高吞吐推理落地指南
人工智能·性能优化
勇气要爆发18 小时前
问:当服务器资源有限,前端项目高并发优化策略
前端·性能优化
桧***攮18 小时前
前端在移动端中的性能优化
前端·性能优化