技术栈
mnn
king of code porter
11 小时前
人工智能
·
深度学习
·
mnn
深度学习之用CelebA_Spoof数据集搭建一个活体检测-训练好的模型用MNN来推理
首先确保已完成PyTorch到ONNX的转换:深度学习之用CelebA_Spoof数据集搭建活体检测系统:模型验证与测试。这里有将PyTorch到ONNX格式的模型转换。
龙湾开发
3 天前
人工智能
·
笔记
·
学习
·
机器学习
·
mnn
轻量级高性能推理引擎MNN 学习笔记 02.MNN主要API
注意:本学习笔记只介绍了我在学习过程中常用的API ,更多MNN API 请参考官方文档。使用MNN推理时,有两个层级的抽象,分别是解释器Interpreter和会话Session。Interpreter是模型数据的持有者;Session通过Interpreter创建,是推理数据的持有者。多个推理可以共用同一个模型,即多个Session可以共用一个Interpreter。
知来者逆
15 天前
深度学习
·
目标检测
·
计算机视觉
·
ncnn
·
mnn
·
yolo11
计算机视觉——基于树莓派的YOLO11模型优化与实时目标检测、跟踪及计数的实践
设想一下,你在多地拥有多个仓库,要同时监控每个仓库的实时状况,这对于时间和精力而言,都构成了一项艰巨挑战。从成本和可靠性的层面考量,大规模部署计算设备也并非可行之策。一方面,大量计算设备的购置、维护成本会让你的预算不堪重负;另一方面,设备数量增多,出现故障的概率也会相应提升,这无疑会给仓库的稳定监控带来极大的不确定性。
AI小小怪
20 天前
linux
·
opencv
·
mnn
·
mtcnn
Linux下编译并打包MNN项目迁移至其他设备
该项目是利用MNN框架对MTCNN网络进行推理,实现对目标的实时检测运行环境:Linux相关库:opencv,MNN
我的青春不太冷
3 个月前
人工智能
·
深度学习
·
ncnn
·
mnn
·
在线模型转换网址
2025年最新在线模型转换工具优化模型ncnn,mnn,tengine,onnx
一键转换 Caffe, ONNX, TensorFlow 到 NCNN, MNN, Tengine此网站不会将模型文件上传至服务器保障了安全,隐私性。
泰洋睿兔
4 个月前
人工智能
·
目标检测
·
香橙派
·
mnn
·
opi4a
OPI4A,目标检测,口罩检测,mnn,YoloX
记得之前,使用了bubbling导师复现的python版yolox,训练了自建的口罩数据集,得到了h5文件,又转换成pb文件,再使用阿里巴巴的MNN,使用它的MNNConvert,转换成mnn文件
dubochao_xinxi
10 个月前
人工智能
·
深度学习
·
mnn
MNN编译模型转换工具
要在不同平台上编译和安装 MNN,首先需要满足以下环境要求:可以从以下链接下载 CMake 和 Ninja:
Liuqz2009
1 年前
服务器
·
数据库
·
mnn
MNN 执行推理(九)
MNN createFromBuffer(一) MNN createRuntime(二) MNN createSession 之 Schedule(三) MNN createSession 之创建流水线后端(四) MNN Session 之维度计算(五) MNN Session 之几何计算(六) MNN Session 之 CPU 算子(七) MNN Session 之 Vulkan 算子(八) MNN 执行推理(九)
Liuqz2009
1 年前
人工智能
·
深度学习
·
mnn
MNN createSession 之创建流水线后端(四)
MNN createFromBuffer(一) MNN createRuntime(二) MNN createSession 之 Schedule(三) MNN createSession 之创建流水线后端(四) MNN Session 之维度计算(五) MNN Session 之几何计算(六) MNN Session 之 CPU 算子(七) MNN Session 之 Vulkan 算子(八)
Liuqz2009
1 年前
人工智能
·
深度学习
·
mnn
MNN createFromBuffer(一)
MNN createFromBuffer(一) MNN createRuntime(二) MNN createSession 之 Schedule(三) MNN createSession 之创建流水线后端(四) MNN Session::resize 之流水线编码(五) MNN Session 创建执行器(六)
阿里巴巴淘系技术团队官网博客
1 年前
人工智能
·
深度学习
·
机器学习
·
语言模型
·
mnn
mnn-llm: 大语言模型端侧CPU推理优化
在大语言模型(LLM)端侧部署上,基于 MNN 实现的 mnn-llm 项目已经展现出业界领先的性能,特别是在 ARM 架构的 CPU 上。目前利用 mnn-llm 的推理能力,qwen-1.8b在mnn-llm的驱动下能够在移动端达到端侧实时会话的能力,能够在较低内存(<2G)的情况下,做到快速响应。
曲入冥
1 年前
人工智能
·
深度学习
·
神经网络
·
机器学习
·
cnn
·
dnn
·
mnn
深度学习——第6章 浅层神经网络(NN)
6.1 神经网络模型概述6.2 神经网络正向传播6.3 神经网络反向传播6.4 W和b的初始化6.5 总结