此章节主要讲解 Harris 角点检测和尺度空间特征检测。
一.harris角点检测

基本原理







语法格式如下:
cv2.cornerHarris(img, blockSize, ksize, k)
- img:数据类型为 foat2 的入图像
- blockSize:角点检测中指定区域的大小
- ksize:Sobel求导中使用的窗口大小
- k:取值参数为[0,04,0.06]
代码演示如下:
import numpy as np
import cv2
img = cv2.imread('21.png')
print('img.shape:',img.shape)
gray = cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)
gray = np.float32(gray)
dst = cv2.cornerHarris(gray,2,3,0.04)
print('dst.shape:',dst.shape)
img[dst>0.1*dst.max()]=[0,0,255]
cv2.imshow('dst',img)
cv2.waitKey(0)
cv2.destroyAllWindows()
图像呈现如下:

二.尺度空间定义
在一定的范围内,无论物体是大还是小,人眼都可以分辨出来,然而计算机要有相同的能力却很难,所以要让机器能够对物体在不同尺度下有一个统一的认知,就需要考虑图像在不同的尺度下都存在的特点。
尺度空间的获取通常使用高斯模糊来实现


三.高斯差分金字塔




DoG空间极值检测
为了寻找尺度空间的极值点,每个像素点要和其图像域(同一尺度空间)和尺度域(相邻的尺度空间)的所有相邻点进行比较,当其大于(或者小于)所有相邻点时,该点就是极值点。如下图所示,中间的检测点要和其所在图像的3x3邻域8个像察点,以及其相邻的上下两层的3x3领域18个像察点,共26个像察点进行比较。


关键点的精确定位
这些候选关键点是DOG空间的局部极值点,而且这些极值点均为离散的点,精确定位极值点的一种方法是,对尺度空间D0G函数进行曲线拟合,计算其极值点从而实现关键点的精确定位。


消除边界响应


每个特征点可以得到三个信息,即位置、尺度和方向。具有多个方向的关键点可以被复制成多份,然后将方向值分别赋给复制后的特征点,一个特征点就产生了多个坐标、尺度相等,但是方向不同的特征点。



旋转之后的主方向为中心取8x8的窗口,求每个像素的梯度幅值和方向,箭头方向代表梯度方向,长度代表梯度幅值,然后利用高斯窗口对其进行加权运算,最后在每个4x4的小块上绘制8个方向的梯度直方图,计算每个梯度方向的累加值,即可形成一个种子点,即每个特征的由4个种子点组成,每个种子点有8个方向的向量信息。


代码演示如下:
import numpy as np
import cv2
img = cv2.imread('21.png')
gray = cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)
sift = cv2.xfeatures2d.SIFT_create()
kp = sift.detect(gray,None)
img = cv2.drawKeypoints(gray,kp,img)
cv2.imshow('drawKeypoints',img)
cv2.waitKey(0)
cv2.destroyAllWindows()

计算特征代码如下:
import numpy as np
import cv2
img = cv2.imread('21.png')
gray = cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)
sift = cv2.xfeatures2d.SIFT_create()
kp = sift.detect(gray,None)
img = cv2.drawKeypoints(gray,kp,img)
kp,des = sift.compute(gray,kp)
print(np.array(kp).shape)
print(des.shape)
print(des[0])
