自己动手写深度学习框架(最终的ncnn部署和测试)

【 声明:版权所有,欢迎转载,请勿用于商业用途。 联系信箱:feixiaoxing @163.com】

既然前面已经做好了pytorch到onnx,onnx到ncnn的转换,那么接下来就是用ncnn来执行这些model和参数了。有的人也许会问,既然pytorch都训练好model了,为什么不直接用pytorch在板子上跑呢?那是因为训练的时候,一般都是用nvidia显卡跑的,资源非常富裕。但是在嵌入式板子上,需要用cpu、或者npu来优化处理,整体资源要少得多。所以,model本身也要做适当的裁剪。

1、依赖的文件

ncnn主要就是依赖于param文件和bin文件。其中param文件描述模型本身,bin则是模型参数。

2、支持的平台

本身ncnn支持的平台非常多。除了arm平台之外,它还支持x86、riscv、mips等很多平台。最重要的,ncnn居然支持x86平台,也就是说,我们完全可以用windows的vs2017、vs2019对param、bin进行调试,还是十分方便的。

复制代码
https://github.com/Tencent/ncnn/releases

3、怎么在x86调试

建议直接下载对应的x86 vs2017开发包,里面有bin、include和lib。其中include是头文件,lib是静态文件,bin里面有执行需要的dll文件,就是这么简单。

4、demo代码

为了演示ncnn怎么使用,这里给出一个简单的mnist手写代码识别的case。即,假设我们拿到了对应的param、bin文件,那么对应的识别代码就可以这么来写,

复制代码
#include <iostream>
using namespace std;

// add header file

#include "net.h"

// add lib here

#pragma comment(lib, "ncnn.lib")

// function starts here

int main(int argc, char* argv[])
{
    ncnn::Net net;

    // load parameter

    net.load_param("mnist_clean.ncnn.param");
    net.load_model("mnist_clean.ncnn.bin");

    // prepare input image

    ncnn::Mat in = ncnn::Mat(28, 28, 1);
    in.fill(0.0f);

    // execute it

    ncnn::Extractor ex = net.create_extractor();
    ex.input("in0", in);

    ncnn::Mat out;
    ex.extract("out0", out);

    // check result

    int best = 0;
    float maxv = out[0];
    for (int i = 1; i < 10; i++)
    {
        if (out[i] > maxv)
        {
            maxv = out[i];
            best = i;
        }
    }

    // print result

    std::cout << "predict = " << best << std::endl;
    return 0;
}

中间比较容易出错的地方有两处,一个是in0、out0的名称,这个要根据param文件来判断。还有一个是最终概率的判别,也是要自己写的。有的model还需要图像后处理,比如说yolo,这部分也是需要自己手动补充好的,和ncnn没有关系。

5、移植到arm

之前已经描述过如何移植到树莓派,这里不再赘述,主要还是常规的cmake&make机制。一般来说,如果x86调试没问题之后,arm平台也不会有太大的问题。

相关推荐
渡我白衣11 小时前
AI应用层革命(七)——智能体的终极形态:认知循环体的诞生
人工智能·深度学习·神经网络·目标检测·microsoft·机器学习·自然语言处理
Wnq1007216 小时前
世界模型 AI:认知跃迁的可行性与本质性挑战
人工智能
穷人小水滴16 小时前
科幻 「备用肉身虫」 系列设定集 (AI 摘要)
人工智能·aigc·科幻·未来·小说·设定
老赵聊算法、大模型备案16 小时前
北京市生成式人工智能服务已备案信息公告(2025年12月11日)
人工智能·算法·安全·aigc
咬人喵喵16 小时前
上下文窗口:AI 的“大脑容量”
人工智能
workflower16 小时前
时序数据获取事件
开发语言·人工智能·python·深度学习·机器学习·结对编程
weixin_4461224616 小时前
一个案例验证 LLM大模型编码能力哪家强
人工智能
老蒋新思维17 小时前
创客匠人峰会深度解析:知识变现的 “信任 - 效率” 双闭环 —— 从 “单次交易” 到 “终身复购” 的增长密码
大数据·网络·人工智能·tcp/ip·重构·数据挖掘·创客匠人
java1234_小锋17 小时前
Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 编码器(Encoder)详解以及算法实现
深度学习·语言模型·transformer
大刘讲IT17 小时前
面向中小企业的企业AI Agent未来3年构建蓝图规划
人工智能·经验分享·ai·开源·制造