国产芯上运行TinyMaxi轻量级的神经网络推理库-米尔基于芯驰D9国产商显板

本篇测评由优秀测评者"短笛君"提供。


本文将介绍基于米尔电子MYD-YD9360商显板(米尔基于芯驰D9360国产开发板)的TinyMaxi轻量级的神经网络推理库方案测试。

算力测试

TinyMaix 是面向单片机的超轻量级的神经网络推理库,即 TinyML 推理库,可以让你在任意单片机上运行轻量级深度学习模型~ 开源地址:

GitHub - sipeed/TinyMaix: TinyMaix is a tiny inference library for microcontrollers (TinyML).

搭建的环境为编译的Ubuntu18.04 已经预装好cmake make工具

由于魔法网络原因,这里提前下载好tar包到宿主机上,然后传输到板卡中解压

  • 查看cmake版本

    cmake -version

  • 查看cmake版本

    make -version

确认文件路径,尽量不要拷贝到有权限的路径下

自带示例

文件结构

MNIST示例

MNIST是手写数字识别任务

cd到examples/mnist目录下 使用mkdir build && cd build 命令切换到build文件夹下

复制代码
cmake ..
make./ mnist

cmake生成构建系统

使用make构建可执行文件然后运行

可以看到输出信息

MNIST 示例默认未使用任何指令加速,运行了一张 28×28 的手写数字模拟图像,共消耗了 0.114 毫秒

MBNET示例

mbnet 是适用于移动设备的简单图像分类模型。

  • 切换到 /examples/mbnet 目录:

  • 修改 main.c 文件

  • 创建 build 文件夹并切换

  • 使用 cmake 命令生成构建系统

  • 使用 make 命令构建系统,生成可执行文件

  • 运行可执行文件,执行效果如下

  • MBNET 示例运行输入了一张 96×96×3 的 RGB 图像,输出 1000 分类,共消耗了 16.615 毫秒

运行cifar10 demo

相关推荐
AI产品库几秒前
百度文心快码最新评测:功能、应用与实战全攻略-AI产品库
人工智能·百度
Hello.Reader5 分钟前
Flink ML MinMaxScaler 把特征缩放到统一区间 [min, max]
大数据·人工智能·flink
byzh_rc6 分钟前
[算法设计与分析-从入门到入土] 复杂算法
数据库·人工智能·算法·机器学习·支持向量机
SHIPKING39311 分钟前
2025:从理论到Agent实战——我的AI深度探索与创作之旅
人工智能
石去皿12 分钟前
高级 RAG 实战指南:从基础检索到智能推理的跃迁
人工智能·语言模型·agent·rag
Coder_Boy_14 分钟前
基于SpringAI的智能OPS平台开发前置技能FAISS
人工智能·springboot·faiss
浪子sunny15 分钟前
实时行情Tick数据-金融高频数据解决方案
人工智能
机器学习之心19 分钟前
BO-CNN-BiLSTM贝叶斯优化卷积双向长短期记忆神经网络多输入多输出预测,MATLAB代码
神经网络·matlab·cnn·bo-cnn-bilstm
DatGuy20 分钟前
Week 31: 深度学习补遗:Mamba
人工智能·深度学习
点云SLAM22 分钟前
Manipulate 英文单词学习
人工智能·英文单词学习·雅思备考·manipulate·操作 / 操控·操纵 / 控制·处理 / 调整