探索YOLO v11:3D人工智能的RGB-D视觉革命

哈喽,各位OAK中国的朋友们!

大家好我是张伯生

今天,我想给大家演示一下最新发布的Yolo V11神经网络

下面我将演示的一个程序是:同时在我们的OAK相机上跑Yolo V11和RGB-D,也就是彩色相机和深度图的一个叠加的一个效果

RGB-D和Yolo V11都是跑在我们的相机里面的并且相机的内部做了一个畸变校正以后的深度图,然后在叠加的图上产生一个Yolo V11检测和识别的效果

现在是跑30帧,1920*1080的这样的一个分辨率

这个是我们的彩色图

大家可以看到Yolo V11识别的一个效果

优点:

我经过和Yolo V8和V9对比以后

发现Yolo V11识别的东西:识别框更稳定,并且识别的东西更准

可以识别到我的手机和我的鼠标

同时可以叠加一个深度图,深度图可以跟RGB图进行一个对齐

这是一个bottle深度图

一个深度图上的框产生X Y Z 3个坐标

然后同时我可以把它变成彩色图

这所有的识别工作以及RGB-D的生成工作都是在相机里面完成的

OAK相机优势:

OAK它的优势就是在一个神经网络方面的一个超强的兼容性

以及对新的神经网络架构的一个适应性。(能够比较简单快速的把Yolo系列的神经网络模型

以及其他的一些比较新的神经网络模型可以部署在我们的OAK相机里面并且同时跑RGB-D)

之前我也演示过:运行Yolo V10 V9 V8 V6V5 都是可以在我们的OAK相机里面去运行的。

包括之前的V8的一个人体姿态检测的模型的模型和V11的分割的模型一直到今天出的Yolo V11,也都可以在我们的相机里面比较流畅的运行

下面会给大家看一下Yolo V11模型在OAK的内部做加速的时候的运行的一个速率

Yolo V11运行在我们OAK的相机里面换成自己的路径就可以,其他的代码和Yolo V8 V9 V10基本上是一样的,什么配置也不用做

大家可以看到Yolo V11可以稳定的运行在27帧左右

识别这个手机、椅子、后面的植物、桌子、电视机、它也都能识别

哪怕露一点头,也能识别到人

好今天我的介绍就到这里

谢谢大家

(实跑视频效果请前往视频平台查看)

相关推荐
EasonZzzzzzz6 小时前
计算机视觉——相机标定
人工智能·数码相机·计算机视觉
叶子2024227 小时前
学习使用YOLO的predict函数使用
人工智能·学习·yolo
一勺汤14 小时前
YOLO12 改进|融入 Mamba 架构:插入视觉状态空间模块 VSS Block 的硬核升级
yolo·计算机视觉·mamba·yolov12·yolo12·yolo12该机·yolo12 mamba
到点就困告20 小时前
海康工业相机SDK二次开发(VS+QT+海康SDK+C++)
数码相机·qt·海康
蹦蹦跳跳真可爱5891 天前
Python----目标检测(使用YOLO 模型进行线程安全推理和流媒体源)
人工智能·python·yolo·目标检测·目标跟踪
小草帽学编程1 天前
camera功能真的那么难用吗
数码相机·图形渲染
jr-create(•̀⌄•́)1 天前
静态相机中的 CCD和CMOS的区别
数码相机
中达瑞和-高光谱·多光谱1 天前
LCTF液晶可调谐滤波器在多光谱相机捕捉无人机目标检测中的作用
数码相机·目标检测·无人机
蹦蹦跳跳真可爱5891 天前
Python----目标检测(训练YOLOV8网络)
人工智能·python·yolo·目标检测
孤独野指针*P2 天前
释放模型潜力:浅谈目标检测微调技术(Fine-tuning)
人工智能·深度学习·yolo·计算机视觉·目标跟踪