国产芯上运行TinyMaxi轻量级的神经网络推理库-米尔基于芯驰D9国产商显板

本篇测评由优秀测评者"短笛君"提供。


本文将介绍基于米尔电子MYD-YD9360商显板(米尔基于芯驰D9360国产开发板)的TinyMaxi轻量级的神经网络推理库方案测试。

算力测试

TinyMaix 是面向单片机的超轻量级的神经网络推理库,即 TinyML 推理库,可以让你在任意单片机上运行轻量级深度学习模型~ 开源地址:

GitHub - sipeed/TinyMaix: TinyMaix is a tiny inference library for microcontrollers (TinyML).

搭建的环境为编译的Ubuntu18.04 已经预装好cmake make工具

由于魔法网络原因,这里提前下载好tar包到宿主机上,然后传输到板卡中解压

  • 查看cmake版本

    cmake -version

  • 查看cmake版本

    make -version

确认文件路径,尽量不要拷贝到有权限的路径下

自带示例

文件结构

MNIST示例

MNIST是手写数字识别任务

cd到examples/mnist目录下 使用mkdir build && cd build 命令切换到build文件夹下

复制代码
cmake ..
make./ mnist

cmake生成构建系统

使用make构建可执行文件然后运行

可以看到输出信息

MNIST 示例默认未使用任何指令加速,运行了一张 28×28 的手写数字模拟图像,共消耗了 0.114 毫秒

MBNET示例

mbnet 是适用于移动设备的简单图像分类模型。

  • 切换到 /examples/mbnet 目录:

  • 修改 main.c 文件

  • 创建 build 文件夹并切换

  • 使用 cmake 命令生成构建系统

  • 使用 make 命令构建系统,生成可执行文件

  • 运行可执行文件,执行效果如下

  • MBNET 示例运行输入了一张 96×96×3 的 RGB 图像,输出 1000 分类,共消耗了 16.615 毫秒

运行cifar10 demo

相关推荐
TEC_INO3 分钟前
STM32_9:I2C_DHT11_OLED项目
stm32·单片机·嵌入式硬件
o_insist4 分钟前
LangChain1.0 实现 PDF 文档向量检索全流程
人工智能·python·langchain
__万波__4 分钟前
STM32基于HAL 库开发包创建新的工程-编译-烧录
stm32·单片机·嵌入式硬件
victory04315 分钟前
大模型学习阶段总结和下一阶段展望
深度学习·学习·大模型
OpenMiniServer7 分钟前
AI + GitLab + VSCode:下一代开发工作流的革命性集成
人工智能·vscode·gitlab
脑洞AI食验员9 分钟前
智能体来了:用异常与文件处理守住代码底线
人工智能·python
摘星观月13 分钟前
【三维重建2】TCPFormer以及NeRF相关SOTA方法
人工智能·深度学习
shangjian00713 分钟前
AI大模型-机器学习-分类
人工智能·机器学习·分类
Tiny_React15 分钟前
使用 Claude Code Skills 模拟的视频生成流程
人工智能·音视频开发·vibecoding
人工小情绪17 分钟前
深度学习模型部署
人工智能·深度学习