《深度学习》OpenCV 角点检测、特征提取SIFT 原理及案例解析

目录

一、角点检测

1、什么是角点检测

2、检测流程

1)输入图像

2)图像预处理

3)特征提取

4)角点检测

5)角点定位和标记

6)角点筛选或后处理(可选)

7)输出结果

3、邻域

4、案例实现

运行结果:

二、特征提取sift

1、什么是特征提取

2、步骤

1)数据预处理

2)特征选择

3)特征提取

4)特征表示

3、案例实现

运行结果:


一、角点检测

1、什么是角点检测

角点检测是计算机视觉中的一种特征检测方法 ,用于寻找 图像中的角点 或者具有角点特征图像区域 。角点是指图像中突然改变方向的点 ,即在其周围的不同方向上都有较大的灰度变化 。角点具有一些特殊性质,如旋转不变性、尺度不变性和光照不变性等,因此在图像处理和计算机视觉中具有广泛的应用。

2、检测流程

1)输入图像

将待检测的图像作为输入。

2)图像预处理

对输入图像进行必要的预处理,如灰度化、降噪等,以便更好地进行角点检测。

3)特征提取

使用角点检测算法 对预处理后的图像进行角点特征提取。常见的角点检测算法有Harris角点检测算法、Shi-Tomasi角点检测算法等。

4)角点检测

根据所选的角点检测算法,计算图像中的每个像素点的角点响应值 ,以判断其是否为角点。具体算法会根据不同的方法而有所差异。

5)角点定位和标记

根据角点响应值,确定角点的位置,并进行标记。可以使用函数或算法来绘制或返回角点的位置信息。

6)角点筛选或后处理(可选)

根据具体需求,可以对检测到的角点进行筛选或进行后处理操作,如非极大值抑制阈值过滤等,以去除不准确的角点或增强有效的角点。

7)输出结果

根据需要,可以将检测到的角点的位置信息、图像中绘制的标记或其他相关信息作为输出结果。

3、邻域

在角点检测中,邻域指的是一个中心像素周围的一组像素点 。在检测角点时,我们需要考虑中心像素周围的像素点的特征,如灰度变化,梯度等。这些特征的计算通常需要使用邻域内的像素信息。

邻域的大小 在角点检测中非常重要,它决定了我们考虑的像素点的数量。通常,邻域的大小取决于具体的角点检测算法和应用场景。较大的邻域可以捕获更多的细节信息,但会增加计算的复杂性;较小的邻域可以加快计算速度,但可能会导致角点检测结果不准确。

4、案例实现

python 复制代码
# 角点指图像中局部区城与周围区域有较大灰度变化的点或像素。
# cornerHarris(img,blockSize, ksize, kl, dst[, borderType]])-> dst
# img:输入图像。
# blocksize:角点检测中要考虑的领域大小。
# ksize:Sobel求导中使用的窗口大小。
# k:Harris角点检测方程中的自由参数,取值参数为[0.04,0.06]。
# dst:返回numpy.ndarray对象,大小和src相同,值越大,对应像素点是角的機率越高

img = cv2.imread('huanghelou.png')   # 导入图像
cv2.imshow('img1',img)
cv2.waitKey(0)
gray = cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)  # 转变为灰度图
dst = cv2.cornerHarris(gray,4,3, 0.04)  # 输入图像gray必须是灰度图,4表示领域的大小为2*2,
# 3为计算梯度图的Sobel算子的孔径大小,0.04表示角点检查灵敏度,越小检测到的角点越多
# dst为与输入图像相同大小的矩阵
# Sobel算子是一种常用的边缘检测算子

# 标记检测到的角点
img[dst > 0.05 * dst.max()] = [0,255,0]  # 将原图像中灰度值大于0.05*dst.max()的值标记为绿色
# 这里通过对角点响应进行阈值处理,标记出检测到的角点。
# 0.05 * dst.max() 是一个阈值,大于这个值的像素点会被标记为绿色。
cv2.imshow('img',img)
cv2.waitKey(0)
运行结果:

二、特征提取sift

1、什么是特征提取

特征提取是指从原始数据提取 出具有辨识性代表性特征 ,用于描述和表示数据的关键信息 。在计算机视觉、模式识别和机器学习等领域,特征提取是一项关键的任务,因为原始数据通常含有大量冗余和噪声,通过提取特征可以减少数据的维度、去除冗余信息,从而更好地捕捉数据的潜在模式和结构。

特征可以是数据的某种可测量的属性 ,比如颜色、纹理、形状、梯度等。特征提取的目标是选择和计算这些特征,使其能够表达出不同类别或实例之间的差异和相似性。

SIFI尺度不变特征转换 是一种机器视觉的算法用来侦测与描述影像中的局部性特征,它在空间尺度中寻找极值点,并提取出其位置、尺度、旋转不变数。

2、步骤

1)数据预处理

对原始数据进行预处理,如去噪、归一化、平滑等

2)特征选择

从原始数据中选择合适的特征子集,以避免冗余和噪声。

3)特征提取

根据领域知识或数学算法,计算和提取数据中的特征。

4)特征表示

将提取到的特征表示成一组数值、向量或其他形式,便于计算机处理和分析。

特征提取的好坏对于后续的数据分析、模型训练和模式识别 任务至关重要。一个好的特征应该能够具有辨别性区分不同类别或实例 ,并且具有鲁棒性 ,对于数据的变形和噪声有一定的容忍度

3、案例实现

python 复制代码
import numpy as np

man = cv2.imread('man.png')
cv2.imshow('man',man)
cv2.waitKey(0)
man_gray = cv2.cvtColor(man,cv2.COLOR_BGR2GRAY)
sift = cv2.SIFT_create()  # 创建一个sift对象
kp = sift.detect(man_gray)   # 在灰度图中查找关键点
for x in kp:   # 打印所有关键点坐标
    print(x.pt)

# drawKeypoints(image,keypoints,outImage, color=None, flags=None)
# image:原始图片
# keypoints:从原图中获得的关键点,这也是画图时所用到的数据
# outputimage:输出图像,可以是原始图片,也可以是None
# color:颜色设置过修改(b,g,r)的值,更改画笔的颜色,b=蓝色,g=绿色,r=红色。
# flags:绘图功能尚标识设置
# 绘制关键点,在原始图像上,绘制点kp,None表示不使用绘制匹配项的图像,cv2.DRAW_MATCHES_FLAGS_DRAW_RICH_KEYPOINTS指定绘制关键点的样式
man_sift = cv2.drawKeypoints(man,kp,None,flags=cv2.DRAW_MATCHES_FLAGS_DRAW_RICH_KEYPOINTS)

cv2.imshow('man sift',man_sift)   # 展示绘制了关键信息的图片
cv2.waitKey(0)

# 使用sift.compute()计算关键点描述符,方便后期的特征匹配
keypoints,des = sift.compute(man,kp)  # man原始图像,kp检测到的关键点坐标的列表,des是一个numpy数组,包含所有关键点的描述符
print(np.array(keypoints).shape,des.shape)  # 打印关键点的个数,以及关键点的描述符矩阵的形状
# 输出关键点的形状和描述符的形状。
# np.array(keypoints).shape 表示关键点的数量和形状。
运行结果:
相关推荐
张叔zhangshu32 分钟前
TensorFlow 的基本概念和使用场景
人工智能·python·tensorflow
云起无垠5 小时前
【论文速读】| FirmRCA:面向 ARM 嵌入式固件的后模糊测试分析,并实现高效的基于事件的故障定位
人工智能·自动化
Leweslyh7 小时前
物理信息神经网络(PINN)八课时教案
人工智能·深度学习·神经网络·物理信息神经网络
love you joyfully7 小时前
目标检测与R-CNN——pytorch与paddle实现目标检测与R-CNN
人工智能·pytorch·目标检测·cnn·paddle
该醒醒了~7 小时前
PaddlePaddle推理模型利用Paddle2ONNX转换成onnx模型
人工智能·paddlepaddle
小树苗1937 小时前
DePIN潜力项目Spheron解读:激活闲置硬件,赋能Web3与AI
人工智能·web3
凡人的AI工具箱7 小时前
每天40分玩转Django:Django测试
数据库·人工智能·后端·python·django·sqlite
大多_C7 小时前
BERT outputs
人工智能·深度学习·bert
Debroon8 小时前
乳腺癌多模态诊断解释框架:CNN + 可解释 AI 可视化
人工智能·神经网络·cnn
反方向的钟儿8 小时前
非结构化数据分析与应用(Unstructured data analysis and applications)(pt3)图像数据分析1
人工智能·计算机视觉·数据分析