ROS2+OpenCV综合应用--8. 视觉巡线自动驾驶

1、程序功能说明

程序启动后,调整摄像头的俯仰角,把摄像头往下掰动,使得摄像头可以看到线,然后点击图像窗口,按下r 键进选色模式;接着在在画面中的线的区域内,框出所需要巡线的颜色,松开鼠标后会自动加载处理后的图像;最后按下空格键开启巡线功能。小车在运行过程中,遇到障碍物会停下并且蜂鸣器会响。

2、程序启动

2.1、启动命令

打开一个终端输入以下指令进入docker,

./docker_ros2.sh

出现以下界面就是进入docker成功

启动底盘

ros2 launch yahboomcar_bringup bringup.launch.py

再新开一个终端,进入同一个docker,以下的 da8c4f47020a 修改成实际终端显示的ID

docker ps

docker exec -it da8c4f47020a /bin/bash

进入docker容器后,终端输入,

ros2 run yahboomcar_astra follow_line

以巡黄线为例,

按下r键后,如上图选择蓝线区域,选定后松开鼠标,

如上图所示,右边显示的就是处理后的图像,它会显示黄线部分。然后按下空格键则开始计算速度,小车巡线自动驾驶。

2.2、动态参数调节

可以通过动态参数器可以调节相关参数,docker终端输入,

ros2 run rqt_reconfigure rqt_reconfigure

可调节的参数有,

参数 说明
Kp PID的P值
Ki PID的I值
Kd PID的D值
scale PID调节比例系数
linear 线速度大小
ResponseDist 避障检测距离
refresh 刷新参数按钮

3、核心代码

我们先梳理下巡线的实现原理,通过

  • 计算巡线的中心坐标与图像中心的偏移量,
  • 根据坐标偏移量计算出角速度的值,
  • 发布速度驱动小车。

计算中心坐标,

#计算hsv值

rgb_img, self.hsv_range = self.color.Roi_hsv(rgb_img, self.Roi_init)

#计算self.circle,计算出X的坐标、半径值。半径值为0说明没有检测到线,则发布停车信息

rgb_img, binary, self.circle = self.color.line_follow(rgb_img, self.hsv_range)

计算出角速度的值,

#320是中心点的X坐标的值,通过得到的图像的X值与320的偏差,可以计算出"我现在距离中心有多远",然后计算角速度的值

z_Pid, _\] = self.PID_controller.update(\[(point_x - 320)\*1.0/16, 0\])

相关推荐
音视频牛哥41 分钟前
超清≠清晰:视频系统里的分辨率陷阱与秩序真相
人工智能·机器学习·计算机视觉·音视频·大牛直播sdk·rtsp播放器rtmp播放器·smartmediakit
johnny23342 分钟前
AI视频创作工具汇总:MoneyPrinterTurbo、KrillinAI、NarratoAI、ViMax
人工智能·音视频
Coovally AI模型快速验证1 小时前
当视觉语言模型接收到相互矛盾的信息时,它会相信哪个信号?
人工智能·深度学习·算法·机器学习·目标跟踪·语言模型
居7然1 小时前
Attention注意力机制:原理、实现与优化全解析
人工智能·深度学习·大模型·transformer·embedding
Scabbards_1 小时前
KGGEN: 用语言模型从纯文本中提取知识图
人工智能·语言模型·自然语言处理
LeonDL1682 小时前
【通用视觉框架】基于C#+Winform+OpencvSharp开发的视觉框架软件,全套源码,开箱即用
人工智能·c#·winform·opencvsharp·机器视觉软件框架·通用视觉框架·机器视觉框架
AI纪元故事会2 小时前
《目标检测全解析:从R-CNN到DETR,六大经典模型深度对比与实战指南》
人工智能·yolo·目标检测·r语言·cnn
Shang180989357262 小时前
T41LQ 一款高性能、低功耗的系统级芯片(SoC) 适用于各种AIoT应用智能安防、智能家居方案优选T41L
人工智能·驱动开发·嵌入式硬件·fpga开发·信息与通信·信号处理·t41lq
Bony-2 小时前
用于糖尿病视网膜病变图像生成的GAN
人工智能·神经网络·生成对抗网络
罗西的思考2 小时前
【Agent】 ACE(Agentic Context Engineering)源码阅读笔记---(3)关键创新
人工智能·算法