国产芯上运行TinyMaxi轻量级的神经网络推理库-米尔基于芯驰D9国产商显板

本篇测评由优秀测评者"短笛君"提供。


本文将介绍基于米尔电子MYD-YD9360商显板(米尔基于芯驰D9360国产开发板)的TinyMaxi轻量级的神经网络推理库方案测试。

算力测试

TinyMaix 是面向单片机的超轻量级的神经网络推理库,即 TinyML 推理库,可以让你在任意单片机上运行轻量级深度学习模型~ 开源地址:

GitHub - sipeed/TinyMaix: TinyMaix is a tiny inference library for microcontrollers (TinyML).

搭建的环境为编译的Ubuntu18.04 已经预装好cmake make工具

由于魔法网络原因,这里提前下载好tar包到宿主机上,然后传输到板卡中解压

  • 查看cmake版本

    cmake -version

  • 查看cmake版本

    make -version

确认文件路径,尽量不要拷贝到有权限的路径下

自带示例

文件结构

MNIST示例

MNIST是手写数字识别任务

cd到examples/mnist目录下 使用mkdir build && cd build 命令切换到build文件夹下

复制代码
cmake ..
make./ mnist

cmake生成构建系统

使用make构建可执行文件然后运行

可以看到输出信息

MNIST 示例默认未使用任何指令加速,运行了一张 28×28 的手写数字模拟图像,共消耗了 0.114 毫秒

MBNET示例

mbnet 是适用于移动设备的简单图像分类模型。

  • 切换到 /examples/mbnet 目录:

  • 修改 main.c 文件

  • 创建 build 文件夹并切换

  • 使用 cmake 命令生成构建系统

  • 使用 make 命令构建系统,生成可执行文件

  • 运行可执行文件,执行效果如下

  • MBNET 示例运行输入了一张 96×96×3 的 RGB 图像,输出 1000 分类,共消耗了 16.615 毫秒

运行cifar10 demo

相关推荐
小康小小涵7 分钟前
STM32F103RCT6编写iNav1.7.3飞控固件底层开发
stm32·单片机·嵌入式硬件
Mao.O14 分钟前
开源项目“AI思维圆桌”的介绍和对于当前AI编程的思考
人工智能
jake don20 分钟前
AI 深度学习路线
人工智能·深度学习
信创天地40 分钟前
信创场景软件兼容性测试实战:适配国产软硬件生态,破解运行故障难题
人工智能·开源·dubbo·运维开发·risc-v
幻云20101 小时前
Python深度学习:从筑基到登仙
前端·javascript·vue.js·人工智能·python
bst@微胖子1 小时前
LlamaIndex之核心概念及部署以及入门案例
pytorch·深度学习·机器学习
无风听海1 小时前
CBOW 模型中的输出层
人工智能·机器学习
汇智信科1 小时前
智慧矿山和工业大数据解决方案“智能设备管理系统”
大数据·人工智能·工业大数据·智能矿山·汇智信科·智能设备管理系统
静听松涛1331 小时前
跨语言低资源场景下的零样本迁移
人工智能
SEO_juper1 小时前
AI+SEO全景决策指南:10大高价值方法、核心挑战与成本效益分析
人工智能·搜索引擎·seo·数字营销