【opencv】教程代码 —features2D(2)

使用SURF算法检测两幅图关键点后暴力匹配

SURF特征检测

使用SURF(Speeded Up Robust Features)算法来检测两张图像之间的关键点,并使用FLANN(Fast Library for Approximate Nearest Neighbors)基于特征描述符向量进行匹配

图像特征点检测(SURF)、(FLANN)匹配和目标定位

1.feature_description---SURF_matching_Demo.cpp(Debug模式)使用SURF算法检测两幅图关键点后暴力匹配****

box.png

box_in_scene.png

minHessian=400

minHessian=1000

minHessian=10000

cpp 复制代码
#include <iostream> // 包含标准输入输出流库
#include "opencv2/core.hpp" // 包括OpenCV的核心功能头文件
#ifdef HAVE_OPENCV_XFEATURES2D // 如果定义了HAVE_OPENCV_XFEATURES2D
#include "opencv2/highgui.hpp" // 包括用户界面相关功能的头文件
#include "opencv2/features2d.hpp" // 包括特征检测相关功能的头文件
#include "opencv2/xfeatures2d.hpp" // 包括特殊特征检测的头文件(非free模块)


using namespace cv; // 使用cv命名空间
using namespace cv::xfeatures2d; // 使用cv的xfeatures2d命名空间
using std::cout; // 使用标准库中的cout
using std::endl; // 使用标准库中的endl


const char* keys = // 定义命令行参数
    "{ help h |                  | Print help message. }"
    "{ input1 | box.png          | Path to input image 1. }"
    "{ input2 | box_in_scene.png | Path to input image 2. }";


int main( int argc, char* argv[] ) // 主函数
{
    CommandLineParser parser( argc, argv, keys ); // 创建命令行解析器
    Mat img1 = imread( samples::findFile( parser.get<String>("input1") ), IMREAD_GRAYSCALE ); // 读取第一张图片为灰度图
    Mat img2 = imread( samples::findFile( parser.get<String>("input2") ), IMREAD_GRAYSCALE ); // 读取第二张图片为灰度图
    if ( img1.empty() || img2.empty() ) // 如果图片读取失败
    {
        cout << "Could not open or find the image!\n" << endl; // 打印错误信息
        parser.printMessage(); // 打印帮助信息
        return -1; // 返回错误代码
    }


    //-- Step 1: Detect the keypoints using SURF Detector, compute the descriptors
    int minHessian = 400; // 设置SURF算法的Hessian阈值
    Ptr<SURF> detector = SURF::create( minHessian ); // 创建SURF特征检测器
    std::vector<KeyPoint> keypoints1, keypoints2; // 存放两张图片的关键点
    Mat descriptors1, descriptors2; // 存放两张图片的描述符
    detector->detectAndCompute( img1, noArray(), keypoints1, descriptors1 ); // 检测并计算img1的关键点和描述符
    detector->detectAndCompute( img2, noArray(), keypoints2, descriptors2 ); // 检测并计算img2的关键点和描述符


    //-- Step 2: Matching descriptor vectors with a brute force matcher
    // Since SURF is a floating-point descriptor NORM_L2 is used
    Ptr<DescriptorMatcher> matcher = DescriptorMatcher::create(DescriptorMatcher::BRUTEFORCE); // 创建暴力匹配器
    std::vector< DMatch > matches; // 存放匹配结果
    matcher->match( descriptors1, descriptors2, matches ); // 执行匹配
    //-- Draw matches
    Mat img_matches; // 存放匹配之后的图片
    drawMatches( img1, keypoints1, img2, keypoints2, matches, img_matches ); // 绘制匹配结果


    //-- Show detected matches
    imshow("Matches", img_matches ); // 在窗口中显示匹配结果


    waitKey(); // 等待用户按键
    return 0; // 程序成功结束
}
#else
int main() // 如果没定义HAVE_OPENCV_XFEATURES2D
{
    std::cout << "This tutorial code needs the xfeatures2d contrib module to be run." << std::endl; // 提示需要xfeatures2d模块
    return 0; // 程序结束
}
#endif

这段代码是使用OpenCV库进行图像特征点检测和匹配的示例。它通过SURF算法来检测两幅图片中的特征点,并使用暴力匹配器来找出这些特征点之间的匹配关系。最终将匹配的结果用图形化的方式展示出来。这对于很多计算机视觉任务,比如物体识别、图像拼接等是非常实用的。如果环境中没有安装OpenCV的xfeatures2d模块,则给出提示信息。

2.feature_detection---SURF_detection_Demo.cpp SURF特征检测

cpp 复制代码
#include <iostream> // 包含输入输出流的头文件
#include "opencv2/core.hpp" // 包含OpenCV核心功能的头文件
#ifdef HAVE_OPENCV_XFEATURES2D
#include "opencv2/highgui.hpp" // 包含OpenCV GUI功能的头文件
#include "opencv2/features2d.hpp" // 包含OpenCV特征检测相关功能的头文件
#include "opencv2/xfeatures2d.hpp" // 包含OpenCV extra features2d模块的头文件,例如SURF


using namespace cv; // 使用cv命名空间
using namespace cv::xfeatures2d; // 使用cv::xfeatures2d命名空间,因为SURF是其中的一部分
using std::cout; // 使用标准命名空间下的cout
using std::endl; // 使用标准命名空间下的endl


int main( int argc, char* argv[] )
{
    CommandLineParser parser( argc, argv, "{@input | box.png | input image}" ); // 命令行参数解析器
    Mat src = imread( samples::findFile( parser.get<String>( "@input" ) ), IMREAD_GRAYSCALE ); // 读取图像文件转换为灰度图
    if ( src.empty() )
    {
        cout << "Could not open or find the image!\n" << endl;
        cout << "Usage: " << argv[0] << " <Input image>" << endl;
        return -1;
    }


    //-- Step 1: Detect the keypoints using SURF Detector
    // 步骤1:使用SURF检测器检测关键点
    int minHessian = 400; // Hessian算子的阈值
    Ptr<SURF> detector = SURF::create( minHessian ); // 创建SURF检测器
    std::vector<KeyPoint> keypoints; // 关键点的向量
    detector->detect( src, keypoints ); // 检测关键点


    //-- Draw keypoints
    // 绘制关键点
    Mat img_keypoints;
    drawKeypoints( src, keypoints, img_keypoints ); // 将检测到的关键点绘制到图上


    //-- Show detected (drawn) keypoints
    // 显示检测到(绘制的)关键点
    imshow("SURF Keypoints", img_keypoints ); // 创建一个窗口展示关键点


    waitKey(); // 等待任意键输入
    return 0;
}
#else
int main()
{
    std::cout << "This tutorial code needs the xfeatures2d contrib module to be run." << std::endl;
    return 0;
}
#endif

这段代码的功能是使用SURF算法来检测图像中的关键点。首先,它使用命令行参数解析器读取图像,并将其转换为灰度图。如果无法读取图像,它会打印错误消息并退出程序。如果图像读取成功,它创建一个SURF检测器,并根据指定的Hessian阈值来检测图像中的关键点。然后,它将这些关键点绘制在源图像上,并使用imshow函数显示结果。如果没有安装OpenCV的xfeatures2d类的附加模块,它会在命令行输出一条信息,说明需要xfeatures2d模块才能运行此代码。

3. SURF_FLANN_matching_Demo.cpp 使用SURF(Speeded Up Robust Features)算法来检测两张图像之间的关键点,并使用FLANN(Fast Library for Approximate Nearest Neighbors)基于特征描述符向量进行匹配

cpp 复制代码
#include <iostream>  // 包含标准输入输出流库
#include "opencv2/core.hpp" // 包含OpenCV核心功能库


#ifdef HAVE_OPENCV_XFEATURES2D // 如果定义了HAVE_OPENCV_XFEATURES2D(检查xfeatures2d模块是否可用)
#include "opencv2/highgui.hpp" // 包含OpenCV高级GUI库
#include "opencv2/features2d.hpp" // 包含OpenCV特征点检测库
#include "opencv2/xfeatures2d.hpp" // 包含OpenCV附加特征点检测库


using namespace cv;  // 使用cv命名空间
using namespace cv::xfeatures2d; // 使用cv::xfeatures2d命名空间
using std::cout;  // 使用cout(标准输出)
using std::endl;  // 使用endl(换行符)


const char* keys =  // 定义命令行参数
    "{ help h |                  | Print help message. }"  // 帮助信息
    "{ input1 | box.png          | Path to input image 1. }"  // 输入图像1的路径
    "{ input2 | box_in_scene.png | Path to input image 2. }";  // 输入图像2的路径


int main( int argc, char* argv[] )  // 主函数
{
    CommandLineParser parser( argc, argv, keys ); // 命令行解析器
    Mat img1 = imread( samples::findFile( parser.get<String>("input1") ), IMREAD_GRAYSCALE ); // 读取输入图像1为灰度图
    Mat img2 = imread( samples::findFile( parser.get<String>("input2") ), IMREAD_GRAYSCALE ); // 读取输入图像2为灰度图
    if ( img1.empty() || img2.empty() ) // 如果任一图像为空则打印错误信息
    {
        cout << "Could not open or find the image!\n" << endl;
        parser.printMessage(); // 打印帮助信息
        return -1; // 返回-1表示错误
    }


    //-- Step 1: Detect the keypoints using SURF Detector, compute the descriptors
    int minHessian = 400; // 定义Hessian阈值
    Ptr<SURF> detector = SURF::create( minHessian ); // 创建SURF检测器
    std::vector<KeyPoint> keypoints1, keypoints2;  // 定义关键点向量
    Mat descriptors1, descriptors2;  // 定义描述符矩阵
    detector->detectAndCompute( img1, noArray(), keypoints1, descriptors1 ); // 检测图像1的关键点和描述符
    detector->detectAndCompute( img2, noArray(), keypoints2, descriptors2 ); // 检测图像2的关键点和描述符


    //-- Step 2: Matching descriptor vectors with a FLANN based matcher
    // Since SURF is a floating-point descriptor NORM_L2 is used
    Ptr<DescriptorMatcher> matcher = DescriptorMatcher::create(DescriptorMatcher::FLANNBASED); // 创建基于FLANN的描述符匹配器
    std::vector< std::vector<DMatch> > knn_matches;  // 定义K邻近匹配向量
    matcher->knnMatch( descriptors1, descriptors2, knn_matches, 2 ); // 执行K邻近匹配


    //-- Filter matches using the Lowe's ratio test
    const float ratio_thresh = 0.7f;  // 定义Lowe's比率测试阈值
    std::vector<DMatch> good_matches;  // 定义良好匹配向量
    for (size_t i = 0; i < knn_matches.size(); i++) // 遍历所有K邻近匹配
    {
        if (knn_matches[i][0].distance < ratio_thresh * knn_matches[i][1].distance) // 如果满足Lowe's比率测试则认为是良好匹配
        {
            good_matches.push_back(knn_matches[i][0]); // 添加到良好匹配向量中
        }
    }


    //-- Draw matches
    Mat img_matches;  // 定义匹配结果图像
    drawMatches( img1, keypoints1, img2, keypoints2, good_matches, img_matches, Scalar::all(-1),
                 Scalar::all(-1), std::vector<char>(), DrawMatchesFlags::NOT_DRAW_SINGLE_POINTS ); // 绘制良好匹配


    //-- Show detected matches
    imshow("Good Matches", img_matches ); // 显示匹配结果图像


    waitKey();  // 等待按键事件
    return 0;  // 返回0表示成功
}
#else // 如果没有定义HAVE_OPENCV_XFEATURES2D
int main()  // 主函数
{
    std::cout << "This tutorial code needs the xfeatures2d contrib module to be run." << std::endl; // 打印错误信息
    return 0;  // 返回0表示成功
}
#endif

这段代码是一个使用OpenCV库进行图像处理的例子,特别是使用SURF(Speeded Up Robust Features)算法来检测两张图像之间的关键点,并使用FLANN(Fast Library for Approximate Nearest Neighbors)基于特征描述符向量进行匹配。首先,代码读取两张图像并将它们转换成灰度图。然后,SURF算法被用于检测关键点并计算描述符。接着,运用FLANN匹配器对这两组描述符进行匹配,并使用Lowe's比率测试过滤出良好的匹配点。最后,良好的匹配点被绘制并显示出来。如果没有安装OpenCV的xfeatures2d模块,代码将打印一条错误信息。

css 复制代码
drawMatches( img1, keypoints1, img2, keypoints2, good_matches, img_matches, Scalar::all(-1),
                 Scalar::all(-1), std::vector<char>(), DrawMatchesFlags::NOT_DRAW_SINGLE_POINTS );

4.SURF_FLANN_matching_homography_Demo.cpp 图像特征点检测、匹配和目标定

cpp 复制代码
// 引用必要的库
#include <iostream>
#include "opencv2/core.hpp"
#ifdef HAVE_OPENCV_XFEATURES2D // 判断是否有xfeatures2d模块,如果有则进行下面的操作
#include "opencv2/calib3d.hpp"
#include "opencv2/highgui.hpp"
#include "opencv2/imgproc.hpp"
#include "opencv2/features2d.hpp"
#include "opencv2/xfeatures2d.hpp"


// 使用命名空间简化代码
using namespace cv;
using namespace cv::xfeatures2d;
using std::cout;
using std::endl;


// 定义程序参数
const char* keys =
        "{ help h |                  | 打印帮助信息}"
        "{ input1 | box.png          | 第一张输入图像路径}"
        "{ input2 | box_in_scene.png | 第二张输入图像路径}";


// 程序主函数
int main( int argc, char* argv[] )
{
    // 定义命令行解析器
    CommandLineParser parser( argc, argv, keys );
    // 读取图片
    Mat img_object = imread( samples::findFile( parser.get<String>("input1") ), IMREAD_GRAYSCALE );
    Mat img_scene = imread( samples::findFile( parser.get<String>("input2") ), IMREAD_GRAYSCALE );
    // 判断图片是否读取成功
    if ( img_object.empty() || img_scene.empty() )
    {
        cout << "无法打开或找到图片!\n" << endl;
        parser.printMessage(); //打印错误信息
        return -1;
    }


    //-- Step 1: 使用SURF检测器检测关键点并计算描述符
    int minHessian = 400; //设置SURF算法中的hessian阈值
    Ptr<SURF> detector = SURF::create( minHessian ); // 创建SURF检测器
    std::vector<KeyPoint> keypoints_object, keypoints_scene; // 定义储存关键点的向量
    Mat descriptors_object, descriptors_scene; //定义储存描述符的矩阵
    detector->detectAndCompute( img_object, noArray(), keypoints_object, descriptors_object ); // 在目标图片中检测关键点并计算描述符
    detector->detectAndCompute( img_scene, noArray(), keypoints_scene, descriptors_scene ); //在场景图片中检测关键点并计算描述符


    //-- Step 2: 通过FLANN匹配器对描述符向量进行匹配
    // 由于SURF是一个浮点数描述符,此处使用NORM_L2
    Ptr<DescriptorMatcher> matcher = DescriptorMatcher::create(DescriptorMatcher::FLANNBASED);
    std::vector< std::vector<DMatch> > knn_matches; //定义knn匹配的结果向量
    matcher->knnMatch( descriptors_object, descriptors_scene, knn_matches, 2 ); //knn匹配


    //-- Step 3: 利用Lowe's比率测试过滤匹配点
    const float ratio_thresh = 0.75f;
    std::vector<DMatch> good_matches; //定义储存优质匹配点的向量
    for (size_t i = 0; i < knn_matches.size(); i++)
    {
        if (knn_matches[i][0].distance < ratio_thresh * knn_matches[i][1].distance) //通过比率测试进行筛选
        {
            good_matches.push_back(knn_matches[i][0]);
        }
    }


    //-- Step 4: 绘制优质匹配点
    Mat img_matches;
    drawMatches( img_object, keypoints_object, img_scene, keypoints_scene, good_matches, img_matches, Scalar::all(-1),
                 Scalar::all(-1), std::vector<char>(), DrawMatchesFlags::NOT_DRAW_SINGLE_POINTS );


    //-- Step 5: 找到场景图片中的目标位置
    std::vector<Point2f> obj;
    std::vector<Point2f> scene;


    for( size_t i = 0; i < good_matches.size(); i++ )
    {
        //-- 从优质匹配点中获取关键点
        obj.push_back( keypoints_object[ good_matches[i].queryIdx ].pt );
        scene.push_back( keypoints_scene[ good_matches[i].trainIdx ].pt );
    }


    Mat H = findHomography( obj, scene, RANSAC ); //计算单应性矩阵


    //-- Step 6: 获取目标图片的角点(the object to be "detected")
    std::vector<Point2f> obj_corners(4);
    obj_corners[0] = Point2f(0, 0);
    obj_corners[1] = Point2f( (float)img_object.cols, 0 );
    obj_corners[2] = Point2f( (float)img_object.cols, (float)img_object.rows );
    obj_corners[3] = Point2f( 0, (float)img_object.rows );
    std::vector<Point2f> scene_corners(4);


    perspectiveTransform( obj_corners, scene_corners, H); //对目标点进行透视投影变换


    //-- Draw lines between the corners (the mapped object in the scene - image_2 )
    line( img_matches, scene_corners[0] + Point2f((float)img_object.cols, 0),
          scene_corners[1] + Point2f((float)img_object.cols, 0), Scalar(0, 255, 0), 4 );
    line( img_matches, scene_corners[1] + Point2f((float)img_object.cols, 0),
          scene_corners[2] + Point2f((float)img_object.cols, 0), Scalar( 0, 255, 0), 4 );
    line( img_matches, scene_corners[2] + Point2f((float)img_object.cols, 0),
          scene_corners[3] + Point2f((float)img_object.cols, 0), Scalar( 0, 255, 0), 4 );
    line( img_matches, scene_corners[3] + Point2f((float)img_object.cols, 0),
          scene_corners[0] + Point2f((float)img_object.cols, 0), Scalar( 0, 255, 0), 4 );


    //-- Step 7: 展示检测到的匹配
    imshow("Good Matches & Object detection", img_matches );


    waitKey(); //等待用户按键
    return 0;
}
#else
int main()
{
    std::cout << "这个教程代码需要xfeatures2d contrib模块才能运行." << std::endl;
    return 0;
}
#endif

以上代码实现了一个物体识别程序,它能从一张场景图像中找到另一张目标图像的位置。首先,通过SURF检测器找到两张图片的关键点和描述符。接着,通过FLANN匹配器找到匹配的点,并通过Lowe's比率测试进行筛选,得到优质的匹配点 。最后,根据这些匹配点找到目标图片在场景图片中的位置,并在匹配图上绘制出目标的角点

相关推荐
昨日之日20062 小时前
Moonshine - 新型开源ASR(语音识别)模型,体积小,速度快,比OpenAI Whisper快五倍 本地一键整合包下载
人工智能·whisper·语音识别
浮生如梦_2 小时前
Halcon基于laws纹理特征的SVM分类
图像处理·人工智能·算法·支持向量机·计算机视觉·分类·视觉检测
深度学习lover2 小时前
<项目代码>YOLOv8 苹果腐烂识别<目标检测>
人工智能·python·yolo·目标检测·计算机视觉·苹果腐烂识别
热爱跑步的恒川3 小时前
【论文复现】基于图卷积网络的轻量化推荐模型
网络·人工智能·开源·aigc·ai编程
阡之尘埃5 小时前
Python数据分析案例61——信贷风控评分卡模型(A卡)(scorecardpy 全面解析)
人工智能·python·机器学习·数据分析·智能风控·信贷风控
孙同学要努力7 小时前
全连接神经网络案例——手写数字识别
人工智能·深度学习·神经网络
Eric.Lee20217 小时前
yolo v5 开源项目
人工智能·yolo·目标检测·计算机视觉
其实吧38 小时前
基于Matlab的图像融合研究设计
人工智能·计算机视觉·matlab
丕羽8 小时前
【Pytorch】基本语法
人工智能·pytorch·python
ctrey_8 小时前
2024-11-1 学习人工智能的Day20 openCV(2)
人工智能·opencv·学习