OpenCV自学笔记二十三:K近邻算法

**K近邻算法(K-Nearest Neighbors,简称KNN)是一种常用的监督学习算法,可以用于分类和回归问题。**在OpenCV中,KNN算法有相应的函数实现,主要包含在ml模块中。

KNN算法的原理很简单,它基于样本之间的距离来进行分类或回归。对于分类问题,KNN算法将未知样本与训练集中的样本逐个比较距离,并选择距离最近的K个邻居样本,根据这K个邻居样本的标签进行投票,将未知样本归类为票数最多的标签。对于回归问题,KNN算法将未知样本与训练集中的样本逐个比较距离,并选择距离最近的K个邻居样本,然后取这K个邻居样本的平均值作为未知样本的预测值。

在OpenCV中,KNN算法的函数为`cv.ml.KNearest_create()`。下面是一个使用KNN算法进行分类的示例代码:

复制代码
import cv2 as cv

import numpy as np

# 创建KNN对象

knn = cv.ml.KNearest_create()

# 准备训练数据

trainData = np.array([[1, 1], [1, 3], [2, 2], [2, 4]], dtype=np.float32)

responses = np.array([0, 0, 1, 1], dtype=np.float32)

# 训练KNN模型

knn.train(trainData, cv.ml.ROW_SAMPLE, responses)

# 准备测试数据

testData = np.array([[3, 1]], dtype=np.float32)

# 使用KNN分类

_, results, _, _ = knn.findNearest(testData, 1)

print("结果:", results)

在上述示例中,我们首先创建了一个KNN对象。然后,准备训练数据`trainData`和对应的标签`responses`。接下来,使用`train()`函数对KNN模型进行训练。最后,准备测试数据`testData`,并使用`findNearest()`函数进行分类预测,其中参数1表示选择距离最近的1个邻居样本。

运行以上代码,将输出结果为`结果: [[0.]]`,表示测试数据被分类为标签0。

除了分类问题,KNN算法还可以用于回归问题。回归问题与分类问题类似,只是需要使用`cv.ml.KNearest_create()`创建的KNN对象设置`cv.ml.KNearest_REGRESSOR`标志,并且使用`findNearest()`函数的返回值来得到预测的连续值。

相关推荐
d111111111d8 分钟前
在STM32中,中断服务函数的命名有什么要求?
笔记·stm32·单片机·嵌入式硬件·学习·c#
凯_kyle22 分钟前
Python 算法竞赛 —— 基础篇(更新ing)
笔记·python·算法
走在路上的菜鸟40 分钟前
Android学Dart学习笔记第二十三节 类-扩展类型
android·笔记·学习·flutter
陈天伟教授1 小时前
人工智能训练师认证教程(4)OpenCV 快速实践
人工智能·python·神经网络·opencv·机器学习·计算机视觉
百***78751 小时前
【技术教程】3步极速接入GPT-5.1:零门槛体验多模态AI能力
android·java·人工智能·gpt·opencv
暗然而日章1 小时前
C++基础:Stanford CS106L学习笔记 11 Lambdas表达式
c++·笔记·学习
断剑zou天涯1 小时前
【算法笔记】资源限制类题目的解题套路
笔记·算法·哈希算法
走在路上的菜鸟2 小时前
Android学Dart学习笔记第二十一节 类-点的简写
android·笔记·学习·flutter
深蓝海拓2 小时前
PySide6从0开始学习的笔记(十一) QSS 属性选择器
笔记·python·qt·学习·pyqt
中屹指纹浏览器2 小时前
2025技术解析:分布式指纹协同管理技术底层实现与规模化运营逻辑
经验分享·笔记