前视声呐目标识别定位(二)-目标识别定位模块

前视声呐目标识别定位(一)-基础知识

基于前文介绍的基础知识,结合Yolo即可实现目标识别及位置解算。再强调一次仅依靠二维声呐图像是无法实现三维位置的解算的,只能获得位置的距离及水平开角,缺少竖直开角的信息。

项目地址:GitHub - cabinx/yolov5_humble_fls: forward looking sonar object recognition with yolov5 based on ros humble for self use

一、目标物message格式(object_msgs)

ObjectAzimuthRange.msg(单个目标msg)

python 复制代码
string class_name        # 目标种类
float64 probability      # 置信率
float64 object_azimuth   # 目标水平开角
float64 object_range     # 目标距离
int64 num                # 废弃,原构想是目标序号
int64 xmin               # bounding box
int64 ymin               # bounding box
int64 xmax               # bounding box
int64 ymax               # bounding box

ObjectsAzimuthRange.msg(图像中所有目标msg)

python 复制代码
std_msgs/Header header
ObjectAzimuthRange[] object_azimuth_range

二、声呐图像格式

项目中我将声呐图像封装成sensor_msgs/Image的格式方便Yolo识别模块。根据前文介绍的前视声呐图像像素点位置解算的知识,需要声呐水平开角及量程信息。比较合理的方式是重新设计一个msg,将以上所有信息包含。在此我为了开发方便,就将水平开角及量程信息以字符串的形式封装进sensor_msgs/Image中Header下的frame_id里。以水平开角120度,量程10m为例,在msg中的格式为:frame_id: '[120 10]'。两个数据以空格间隔。

三、识别模块(yolov5_humble_fls)

识别模块主要基于Yolov5 V7.0:https://github.com/ultralytics/yolov5/tree/v7.0

相应代码及预训练权值可以在上述链接获取,模型训练等教程也可以参见上述链接。

后续结合ROS2 Humble完成了识别模块,在此简单介绍一些关键步骤的代码注释。

yolov5_sonar.py

python 复制代码
def image_callback(self, image):
    ....
    #获声呐当前帧的水平开角和量程
    # loading the range and azimuth of sonar
    sonar_info = image.header.frame_id
    mid_index = sonar_info.find(' ')
    sonar_azimuth = float(sonar_info[1 : mid_index])
    sonar_range = float(sonar_info[mid_index + 1 : -1])
    ...
python 复制代码
def dectshow(self, org_img, boxs, sonar_azimuth, sonar_range):
    ...
    for box in boxs:
        ...
        #取目标框的中心点并解算该像素的水平开角及距离作为目标位置
        object_x = (int(box[0]) + int(box[2])) / 2.0                          #width
        object_y = (int(box[1]) + int(box[3])) / 2.0                          #height
        object_azimuth_range.object_azimuth = (object_x / (image_width / 2.0) - 1.0) * (sonar_azimuth / 2.0)
        object_azimuth_range.object_range = (1.0 - object_y / image_height) * (sonar_range)
         ...

参数文件:yolov5_humble_fls.yaml

python 复制代码
/yolov5_humble_fls/yolov5_ros2:
  ros__parameters:
    yolov5_path: # yolov5 源码路径
    weight_path: # 模型路径
    image_topic: # 声呐图像topic名称
    objects_info_pub_topic: #目标物信息topic名称
    conf: # 置信率
    use_cpu: # 是否启用Cuda
    display_image: # 是否展示识别图像

四、离线测试数据包

链接:百度网盘 请输入提取码

提取码:jm67

该数据包是使用我之前开源的UATD数据集中的rov目标图像合成的数据包。模型训练也是使用了该数据集。为了方便我将声呐的开角及量程都写死固定。能满足测试需求,只不过目标物的位置信息不正确罢了。

五、测试

bash 复制代码
ros2 launch yolov5_humble_fls start.launch
ros2 bag play sonar_mono

展示的目标框的注释为:目标种类-置信率:(水平开角,距离)

测试视频:

yolov5-sonar-test_2

测试视频在CSDN上传实在麻烦,可以到知乎上看一下吧。

https://zhuanlan.zhihu.com/p/690656008

相关推荐
Coovally AI模型快速验证20 小时前
无人机 RGB+热红外融合检测建筑裂缝与渗漏,34 层高楼约 2 小时
目标检测·计算机视觉·无人机·智慧城市·裂缝检测·渗漏检测
AI浩1 天前
CollabOD:用于无人机小目标检测的跨尺度视觉协作多骨干网络
人工智能·目标检测·无人机
Techblog of HaoWANG1 天前
目标检测与跟踪(9)-- Jetson Xavier NX GPIO控制3D结构光C与Python双版本实现(中)
c语言·人工智能·目标检测
LSQ的测试日记2 天前
深度学习_目标检测,RCNN,Fast-RCNN和Faster-RCNN
人工智能·深度学习·目标检测
V搜xhliang02462 天前
3D 点云处理(PCL)
人工智能·目标检测·计算机视觉·3d·分类·知识图谱
Techblog of HaoWANG2 天前
目标检测与跟踪(9)-- Jetson Xavier NX刷机、移植&部署YOLOv8量化模型(上)
人工智能·yolo·目标检测·边缘计算·sdkmanager·jetson刷机
向哆哆3 天前
交通标识与信号灯数据集(1000张图片已划分、已标注)AI训练适用于目标检测任务
人工智能·目标检测·计算机视觉
Techblog of HaoWANG3 天前
目标检测与跟踪(10)-- Jetson Xavier NX刷机、移植&部署YOLOv8量化模型(中)
python·yolo·目标检测·onnx·量化部署
FriendshipT3 天前
Ultralytics Docker 安装使用教程(以训练 YOLO26 模型为例)
linux·运维·人工智能·目标检测·ubuntu·docker·容器
V搜xhliang02463 天前
面部表情识别(基于计算机视觉的文本分类等)的识别原理
人工智能·目标检测·机器学习·计算机视觉·分类·数据挖掘·知识图谱