《opencv实用探索·二十一》人脸识别

Haar级联分类器

在OpenCV中主要使用了两种特征(即两种方法)进行人脸检测,Haar特征和LBP特征。用的最多的是Haar特征人脸检测。

Haar级联分类器是一种用于目标检测的机器学习方法,它是一种基于机器学习的特征选择方法,能够快速而有效地检测出图像中的对象或特定的模式,例如人脸。

Haar级联分类器工作的基本原理是使用弱分类器(通常是基于决策树的弱分类器)级联成一个强大的分类器。在训练过程中,它通过提取训练样本中的特征并根据这些特征进行分类来逐步学习目标对象(例如人脸)的特征模式。级联的概念允许快速筛选出负样本,减少计算量,从而提高了检测速度。下图展示了级联的过程:

我们需要考虑如何在层次结构中组合多个Haar级联分类器,以便用一个分类器识别父区域(就目标而言是一张人脸),用其他分类器识别子区域(比如眼睛)。

opencv提供了多种训练好的级联分类器模型文件,这些文件通常是XML格式,存放在opencv安装目录下源码文件夹中sources\data\haarcascades

cpp 复制代码
haarcascade_eye.xml, 眼睛
haarcascade_eye_tree_eyeglasses.xml, 戴眼镜的眼睛
haarcascade_frontalcatface.xml, 正面猫脸
haarcascade_frontalcatface_extended.xml, 正面猫脸
haarcascade_frontalface_alt.xml, 正面人脸
haarcascade_frontalface_alt2.xml, 正面人脸
haarcascade_frontalface_alt_tree.xml, 正面人脸
haarcascade_frontalface_default.xml, 正面人脸
haarcascade_fullbody.xml, 人体
haarcascade_lefteye_2splits.xml, 左眼
haarcascade_license_plate_rus_16stages.xml,
haarcascade_lowerbody.xml,
haarcascade_profileface.xml,
haarcascade_righteye_2splits.xml, 右眼
haarcascade_russian_plate_number.xml,
haarcascade_smile.xml, 笑脸
haarcascade_upperbody.xml, 上身

从文件名可知这些级联是用于人脸、眼睛、鼻子和嘴的跟踪。这些文件需要正面、直立的人脸图像。创建人脸检测器时会使用这些文件,创建自己的级联,并训练这些级联来检测各种对象。

Haar级联分类器执行流程
1. 数据准备

正样本收集: 收集包含需要检测对象的图像,并对图像进行标注,标注出感兴趣对象的位置。

负样本收集: 收集不包含感兴趣对象的图像,或者与感兴趣对象不相关的图像样本。

创建样本信息文件: 创建包含正样本和负样本信息的数据文件,描述图像路径、对象位置和标签等信息。
2. 特征提取

Haar 特征选择: 对于每个样本图像,从图像中提取 Haar 特征。Haar 特征是一种矩形区域的强度差异计算,用于表示图像的局部特征。

特征值计算: 计算每个样本图像的 Haar 特征值。Haar 特征是根据矩形区域的像素和计算的。这些特征值将用于训练分类器。
3. 训练分类器

级联分类器训练: 使用提取的特征值对分类器进行训练。初始阶段,级联分类器包含多个弱分类器(例如决策树、Adaboost 等)。

特征选择和增强: 训练过程中,级联分类器将对特征进行选择和增强,以提高对感兴趣对象和背景的区分能力。

级联结构构建: 根据训练数据和特征值,构建多个级联阶段,每个阶段都包含多个弱分类器。
4. 级联分类器应用

对象检测: 将训练好的级联分类器应用于新的图像中进行对象检测。级联分类器采用级联结构逐渐缩小搜索区域,使用不同阶段的弱分类器进行对象检测。

非极大值抑制: 对检测到的对象进行非极大值抑制(Non-Maximum Suppression),以消除重叠区域或多次检测到同一对象的情况。

使用 Haar 级联检测器检测图片中的人脸的步骤:

(1)创建一个 CascadeClassifier 级联分类器对象,从 .xml 文件加载级联分类器模型。

(2)读取待检测的图片。

(3)使用 detectMultiScale() 方法检测图片,返回检测到的面部或眼睛的边界矩形。

(4)将检测到的边界矩形绘制到检测图片上。

OpenCV 中定义了级联分类器类 cv::CascadeClassifier。在 Python 语言中,使用接口函数 cv2.CascadeClassifier() 从文件创建分类器。成员函数 cv.CascadeClassifier.detectMultiScale() 用于执行对图像进行目标检测。

代码示例:

cpp 复制代码
#include "opencv2/objdetect/objdetect.hpp"
#include "opencv2/highgui/highgui.hpp"
#include "opencv2/imgproc/imgproc.hpp"

#include <iostream>
#include <stdio.h>

using namespace std;
using namespace cv;


void detectAndDisplay(Mat frame);


//注意,需要把"haarcascade_frontalface_alt.xml"和"haarcascade_eye_tree_eyeglasses.xml"这两个文件复制到工程路径下
string face_cascade_name = "haarcascade_frontalface_alt.xml";
string eyes_cascade_name = "haarcascade_eye_tree_eyeglasses.xml";
CascadeClassifier face_cascade;
CascadeClassifier eyes_cascade;
string window_name = "Capture - Face detection";
RNG rng(12345);

//-----------------------------------【main( )函数】--------------------------------------------
//		描述:控制台应用程序的入口函数,我们的程序从这里开始
//-------------------------------------------------------------------------------------------------
int main(void)
{
    VideoCapture capture;
    Mat frame;

    //-- 1. 加载级联(cascades)
    if (!face_cascade.load(face_cascade_name)) { printf("--(!)Error loading\n"); return -1; };
    if (!eyes_cascade.load(eyes_cascade_name)) { printf("--(!)Error loading\n"); return -1; };

    //-- 2. 读取视频
    capture.open(0);

    if (capture.isOpened())
    {
        for (;;)
        {
            capture >> frame;

            //-- 3. 对当前帧使用分类器(Apply the classifier to the frame)
            if (!frame.empty())
            {
                detectAndDisplay(frame);
            }
            else
            {
                printf(" --(!) No captured frame -- Break!"); break;
            }

            int c = waitKey(10);
            if ((char)c == 'c') { break; }

        }
    }
    return 0;
}


void detectAndDisplay(Mat frame)
{
    std::vector<Rect> faces;
    Mat frame_gray;

    cvtColor(frame, frame_gray, COLOR_BGR2GRAY);
    equalizeHist(frame_gray, frame_gray);

    //-- 人脸检测
   face_cascade.detectMultiScale(frame_gray, faces, 1.1, 3, 0 | CASCADE_SCALE_IMAGE, Size(30, 30),  Size(200, 200));


    for (size_t i = 0; i < faces.size(); i++)
    {
        Point center(faces[i].x + faces[i].width / 2, faces[i].y + faces[i].height / 2);
        ellipse(frame, center, Size(faces[i].width / 2, faces[i].height / 2), 0, 0, 360, Scalar(255, 0, 255), 2, 8, 0);

        Mat faceROI = frame_gray(faces[i]);
        std::vector<Rect> eyes;

        //-- 在脸中检测眼睛
        eyes_cascade.detectMultiScale(faceROI, eyes, 1.1, 2, 0 | CASCADE_SCALE_IMAGE, Size(30, 30));

        for (size_t j = 0; j < eyes.size(); j++)
        {
            Point eye_center(faces[i].x + eyes[j].x + eyes[j].width / 2, faces[i].y + eyes[j].y + eyes[j].height / 2);
            int radius = cvRound((eyes[j].width + eyes[j].height) * 0.25);
            circle(frame, eye_center, radius, Scalar(255, 0, 0), 3, 8, 0);
        }
    }
    //-- 显示最终效果图
    imshow(window_name, frame);
}

代码分析:

(1)加载级联分类器

通过 CascadeClassifier 类加载人脸和眼睛的级联分类器(XML 文件),即 haarcascade_frontalface_alt.xml 和 haarcascade_eye_tree_eyeglasses.xml。

(2)读取视频流

使用 VideoCapture 对象打开摄像头设备(ID为0),读取视频帧数据。

(3)循环处理每一帧

在循环中,不断从摄像头捕获帧数据 capture >> frame。

对于每一帧,先进行空帧检测,如果帧不为空则调用 detectAndDisplay() 函数进行人脸和眼睛检测。

(4)人脸检测

detectAndDisplay() 函数将传入的帧 frame 转换为灰度图像 frame_gray,并进行直方图均衡化。

调用 face_cascade.detectMultiScale() 在灰度图像中检测人脸区域,并将检测到的人脸区域存储在 faces 向量中。
什么叫直方图均衡化?

首先直方图是图像中像素强度分布的图形表达方式,它统计了每一个强度值所具有的像素个数。如下图所示,横坐标代表图像的灰度变化0-255,纵坐标代码每个灰度对应的像素个数。

那么直方图均衡化是通过拉伸像素强度分布范围来增强图像对比度的一种方法。特别是在一些局部对比度较低的图像中,可以帮助提高图像的质量。

说得更清楚一些, 以下面的直方图为例, 你可以看到左边直方图像素主要集中在中间的一些强度值上. 直方图均衡化要做的就是 拉伸 这个范围.。对其应用均衡化后, 得到了右图所示的直方图. 均衡化的图像见下面右图。可以很明显的看到图像对比度得到了增强。

图像均衡化函数

cpp 复制代码
void equalizeHist(InputArray src, OutputArray dst);

detectMultiScale函数解析:该函数主要用于级联分类器(如 Haar 级联分类器或者基于 HOG 特征的 SVM 分类器)进行对象检测。

cpp 复制代码
void CascadeClassifier::detectMultiScale(
    InputArray image,                        // 输入图像
    std::vector<Rect>& objects,              // 检测到的对象位置矩形
    double scaleFactor = 1.1,                // 每次图像缩小的比例
    int minNeighbors = 3,                    // 最小邻近数,用于合并矩形
    int flags = 0,                           // 未使用的参数,默认为0
    Size minSize = Size(),                   // 对象最小尺寸
    Size maxSize = Size()                    // 对象最大尺寸
);

image:输入图像(灰度图像或彩色图像)。

objects:检测到的对象位置矩形集合,返回给调用者。

scaleFactor:表示在前后两次相继的扫描中,搜索窗口的比例系数。默认为1.1即每次搜索窗口依次扩大10%。建议范围通常在 1.01 到 1.5 之间,较小的值会增加检测时间,但也会增加准确性。较大的值会减少检测时间,但可能会降低准确性。

minNeighbors:匹配成功所需要的周围矩形框的数目,每一个特征匹配到的区域都是一个矩形框,只有多个矩形框同时存在的时候,才认为是匹配成功,比如人脸,这个默认值是3,较大的值可以提高对象检测的准确性,但也会增加漏检率。通常建议设置在3到6之间。

flags:未使用的参数,通常为0。

可以取如下这些值:

CASCADE_DO_CANNY_PRUNING=1, 利用canny边缘检测来排除一些边缘很少或者很多的图像区域

CASCADE_SCALE_IMAGE=2, 正常比例检测

CASCADE_FIND_BIGGEST_OBJECT=4, 只检测最大的物体

CASCADE_DO_ROUGH_SEARCH=8 初略的检测

minSize 和 maxSize:指定对象的最小和最大尺寸。在实际应用中,可以根据目标对象的大小设置这两个参数,以过滤掉尺寸不在指定范围内的检测结果。minSize对于人脸检测,通常设置在 20x20 到 30x30 的范围内。maxSize对于人脸检测,可以设置在 200x200 到 300x300 之间。

(5)眼睛检测

遍历每个检测到的人脸区域,在每个人脸区域中调用 eyes_cascade.detectMultiScale() 进行眼睛检测,并将检测到的眼睛区域存储在 eyes 向量中。

在检测到的每个眼睛区域周围画一个圆圈。

(6)显示结果

最后通过 imshow() 在窗口中显示带有人脸和眼睛检测框的帧图像。

效果显示:

相关推荐
Watermelo61722 分钟前
通过MongoDB Atlas 实现语义搜索与 RAG——迈向AI的搜索机制
人工智能·深度学习·神经网络·mongodb·机器学习·自然语言处理·数据挖掘
AI算法-图哥34 分钟前
pytorch量化训练
人工智能·pytorch·深度学习·文生图·模型压缩·量化
大山同学37 分钟前
DPGO:异步和并行分布式位姿图优化 2020 RA-L best paper
人工智能·分布式·语言模型·去中心化·slam·感知定位
机器学习之心37 分钟前
时序预测 | 改进图卷积+informer时间序列预测,pytorch架构
人工智能·pytorch·python·时间序列预测·informer·改进图卷积
醉颜凉1 小时前
【NOIP提高组】潜伏者
java·c语言·开发语言·c++·算法
hunandede1 小时前
FFmpeg 4.3 音视频-多路H265监控录放C++开发十三.2:avpacket中包含多个 NALU如何解析头部分析
c++·ffmpeg·音视频
天飓1 小时前
基于OpenCV的自制Python访客识别程序
人工智能·python·opencv
檀越剑指大厂1 小时前
开源AI大模型工作流神器Flowise本地部署与远程访问
人工智能·开源
声网1 小时前
「人眼视觉不再是视频消费的唯一形式」丨智能编解码和 AI 视频生成专场回顾@RTE2024
人工智能·音视频
newxtc1 小时前
【AiPPT-注册/登录安全分析报告-无验证方式导致安全隐患】
人工智能·安全·ai写作·极验·行为验证