opencv实战项目二十七:基于meanshif的视频脸部跟踪

文章目录


前言

在当今这个信息化时代,图像和视频处理技术已经渗透到我们生活的方方面面,从安防监控、智能交通到人机交互等领域,都离不开目标跟踪技术的应用。作为计算机视觉领域的一个重要分支,目标跟踪技术一直以来都是研究的热点。而在众多的目标跟踪算法中,基于OpenCV的Mean Shift算法以其简洁、高效的特点受到了广泛的关注。本文将带你走进基于OpenCV的Mean Shift跟踪算法的世界,深入剖析其原理,并通过实战案例,教你如何使用OpenCV库实现一个简单而实用的人脸跟踪系统。


一、Mean Shift是什么?

Mean Shift算法是一种有效的迭代方法,用于寻找数据集中点的密集区域,它在模式识别和图像处理等领域有着广泛的应用,尤其是在目标跟踪和图像分割任务中。Mean Shift算法的核心思想是通过迭代方式更新候选点的位置,直到收敛到数据的高密度区域。这个过程可以概括为以下几个步骤:

1.初始化:选择一个或多个种子点(通常是目标点的初始估计)。

2.计算偏移量:在每个迭代步骤中,计算当前种子点周围的点的加权平均位置(即均值),这个加权平均位置与当前种子点的差值称为偏移量。

3.更新位置:将种子点更新为加权平均位置。

4.重复迭代:重复上述步骤,直到偏移量小于一个预设的阈值,表明种子点已经收敛到数据的一个密度峰值。

可以简化理解:即假设你有一组点。(它可以是像直方图反向投影这样的像素分布)。你有一个小窗口(可能是一个圆圈),你必须将该窗口移动到最大像素密度(或最大点数)的区域。如下图所示:

初始窗口以蓝色圆圈显示,名称为"C1"。它的原始中心被标记为蓝色矩形,命名为"C1_o"。但是如果你找到窗口内点的质心,你会得到点"C1_r"(用蓝色小圆圈标记),这是窗口的真正质心。它们肯定不匹配。所以移动你的窗口,使新窗口的圆与之前的质心匹配。再次找到新的质心。最有可能的是,它不会匹配。因此,再次移动它,并继续迭代,使窗口的中心和它的质心落在同一位置(或在一个小的期望误差)。最后你得到的是一个具有最大像素分布的窗口。它有一个绿色的圆圈,命名为"C2"。正如你在图片中看到的,它有最大数量的点。

因此,通常传递直方图反投影图像和初始目标位置。当物体运动时,这种运动明显地反映在直方图反投影图像中。因此,meanshift算法将我们的窗口移动到具有最大密度的新位置。

二、opencv中meanshift使用流程

在opencv中支持meanshift算法的使用其api为cv2.meanShift,在 OpenCV 中使用 cv2.meanShift 函数需要以下步骤:

  1. 初始化目标区域:首先,需要指定一个初始的目标区域(通常是一个矩形框),这可以通过手动选择或使用其他方法(如物体检测算法)来实现。
  2. 计算直方图反向投影:为了跟踪目标,需要计算目标的颜色直方图,并将其反向投影到整个图像上。这有助于突出显示与目标颜色匹配的区域。
  3. 调用 cv2.meanShift使用反向投影图像和初始目标窗口调用 cv2.meanShift 函数,它会返回新的目标位置。

第二步直方图反向投影使用的方法为cv2.calcBackProject,反向投影技术是一种基于色彩统计的目标检测方法。它将每个像素点的颜色与目标物体的颜色直方图进行比较,并创建一个新的图像,该图像的每个像素值表示该像素颜色与目标颜色匹配的概率。这个概率图像可以用于后续的目标跟踪或分割。

其函数为dst = cv2.calcBackProject(images, channels, hist, ranges, scale)

参数介绍:

images:一个或多个源图像的列表,通常是单通道图像。

channels:需要计算反向投影的图像通道的索引列表。

hist:目标颜色直方图,通常是通过 cv2.calcHist 函数计算得到的。

ranges:每个直方图通道的值范围,通常是 [0, 256]。

scale:可选参数,用于缩放返回的反向投影值,默认为 1。

在计算好反向投影之后,调用cv2.meanShift算法寻找新的矩形框,retval, target = cv2.meanShift(probImage, window, criteria):

输入参数:

probImage:反向投影图像,通常是通过 cv2.calcBackProject 函数生成的。

window:初始搜索窗口,通常是一个矩形区域 (x, y, width, height),表示目标的初始位置和大小。

criteria:停止迭代的标准,通常是一个包含三个元素的元组 (type, max_iter, epsilon),其中:

type:确定用于停止迭代的准则类型,通常是 cv2.TERM_CRITERIA_EPS 或 cv2.TERM_CRITERIA_MAX_ITER。

max_iter:最大迭代次数。

epsilon:所需的精度或阈值,当窗口移动小于这个值时,迭代停止。

返回值:

retval:迭代过程中的迭代次数。

target:目标的最终位置,即更新后的窗口位置 (x, y, width, height)。

三、使用代码:

python 复制代码
import cv2
import numpy as np

# 视频文件路径
video_path = 'D:\input_video.mp4'

# 设置初始化的窗口位置
r, h, c, w = 100, 400, 200, 300  # 设置初试窗口位置和大小
track_window = (c, r, w, h)

# 初始化视频读取
cap = cv2.VideoCapture(video_path)

# 读取第一帧
ret, frame = cap.read()

# 设置追踪的区域
roi = frame[r:r + h, c:c + w]
# roi区域的hsv图像
hsv_roi = cv2.cvtColor(roi, cv2.COLOR_BGR2HSV)
# 取值hsv值在(0,60,32)到(180,255,255)之间的部分
mask = cv2.inRange(hsv_roi, np.array((0., 60., 32.)), np.array((180., 255., 255.)))
# 计算直方图,参数为 图片(可多),通道数,蒙板区域,直方图长度,范围
roi_hist = cv2.calcHist([hsv_roi], [0], mask, [180], [0, 180])
# 归一化
cv2.normalize(roi_hist, roi_hist, 0, 255, cv2.NORM_MINMAX)

# 设置终止条件,迭代10次或者至少移动1次
term_crit = (cv2.TERM_CRITERIA_EPS | cv2.TERM_CRITERIA_COUNT, 10, 1)

while ret:
    ret, frame = cap.read()
    if ret == True:
        frame = cv2.flip(frame, 1)
        # 计算每一帧的hsv图像
        hsv = cv2.cvtColor(frame, cv2.COLOR_BGR2HSV)
        # 计算反向投影
        dst = cv2.calcBackProject([hsv], [0], roi_hist, [0, 180], 1)

        # 调用meanShift算法在dst中寻找目标窗口,找到后返回目标窗口
        ret, track_window = cv2.meanShift(dst, track_window, term_crit)
        # 在图像上绘制它
        x, y, w, h = track_window
        img2 = cv2.rectangle(frame, (x, y), (x + w, y + h), 255, 2)
        cv2.imshow('img2', img2)

    if cv2.waitKey(0) & 0xFF == ord('q'):
        break

cap.release()
cv2.destroyAllWindows()

四、效果:


相关推荐
莫叫石榴姐23 分钟前
趣味SQL | 从围棋收官到秦楚大战的数据库SQL实现(下)
大数据·数据库·人工智能·sql·算法
fcblow26 分钟前
求10 个整数中最大值
c语言·算法·排序算法
码农豆豆38 分钟前
11.C++程序中的常用函数
开发语言·c++·算法
曳渔1 小时前
Java-数据结构-Map和Set-(二)-哈希表 |ू・ω・` )
java·开发语言·数据结构·算法·哈希算法·散列表
March€1 小时前
常见算法复习
java·算法·排序算法
冉佳驹1 小时前
数据结构 ——— 顺序表oj题:编写函数,合并两个有序数组
c语言·数据结构·算法
正义的彬彬侠2 小时前
回归模型拟合效果的统计指标: 决定系数 R2 r2 r2_score
人工智能·机器学习·回归·线性回归
奕直张不大2 小时前
NLP基础1
人工智能·自然语言处理
松门一枝花2 小时前
什么是大语言模型,一句话解释
人工智能·语言模型·自然语言处理
三更两点2 小时前
libtorch落地AI项目的一些总结
人工智能·pytorch·深度学习