机器学习 - 监督学习 - KNN、线性回归与岭回归

机器学习学习笔记 - 监督学习 - KNN、线性回归与岭回归

一、K-近邻算法(KNN)

K-近邻算法(K-Nearest Neighbors,简称KNN)是一种基础且直观的监督学习算法。它的工作原理是:对于一个新的未知类别的样本,根据它距离已知类别的样本的远近来进行分类。具体来说,算法会计算新样本与训练集中每个样本的距离,然后选取与新样本距离最近的K个样本,最后根据这K个样本的类别来决定新样本的类别。

KNN算法的优点是简单易懂,无需训练过程,只需要存储训练数据即可。然而,它也有一些缺点,比如对计算资源的需求较大(需要计算新样本与所有训练样本的距离),对数据的预处理和特征选择较为敏感,以及对于不平衡的类别分布可能会产生偏差。

二、线性回归

线性回归是一种用于预测数值型数据的监督学习算法。它试图找到一条最佳的直线(或更高维度的超平面),使得预测值与实际值之间的误差最小。线性回归的模型形式简单,易于理解,且计算效率较高。

然而,线性回归也有一些局限性。首先,它假设输入特征与目标变量之间存在线性关系,如果实际关系是非线性的,那么线性回归的效果可能会较差。其次,线性回归对异常值较为敏感,如果数据中存在较多的异常值,可能会导致模型的预测性能下降。

三、岭回归(Ridge Regression)

岭回归是线性回归的一种扩展,用于解决线性回归中可能存在的过拟合问题。在岭回归中,通过在损失函数中添加正则化项(通常是L2范数)来限制模型的复杂度。正则化项有助于防止模型参数过大,从而避免过拟合。

岭回归的目标函数通常包括均方误差(MSE)和正则化项两部分。通过最小化目标函数,可以找到最适合数据的模型参数。岭回归在处理具有共线性特征的数据时表现较好,因为它能够降低这些特征对模型的影响。此外,岭回归还能在一定程度上提高模型的泛化能力,使其在面对新数据时具有更好的预测性能。

总结:

KNN、线性回归和岭回归都是监督学习中常用的算法。KNN基于样本间的距离进行分类,适用于分类问题;线性回归通过拟合一条直线或超平面来预测数值型数据,适用于回归问题;岭回归则是线性回归的一种改进,通过添加正则化项来解决过拟合问题。在实际应用中,需要根据问题的特点和数据的性质来选择合适的算法。

相关推荐
松果财经3 分钟前
千亿级赛道,Robobus 赛道中标新加坡自动驾驶巴士项目的“确定性机会”
人工智能·机器学习·自动驾驶
Blossom.1185 分钟前
用一颗MCU跑通7B大模型:RISC-V+SRAM极致量化实战
人工智能·python·单片机·嵌入式硬件·opencv·机器学习·risc-v
GIS学姐嘉欣17 分钟前
【智慧城市】2025年中国地质大学(武汉)暑期实训优秀作品(5):智慧矿产
学习·gis·智慧城市·webgis
折翼的恶魔25 分钟前
前端学习之样式设计
前端·css·学习
ARM+FPGA+AI工业主板定制专家5 小时前
基于GPS/PTP/gPTP的自动驾驶数据同步授时方案
人工智能·机器学习·自动驾驶
光影少年7 小时前
angular生态及学习路线
前端·学习·angular.js
lisw0510 小时前
SolidWorks:现代工程设计与数字制造的核心平台
人工智能·机器学习·青少年编程·软件工程·制造
学Linux的语莫10 小时前
机器学习数据处理
java·算法·机器学习
逆小舟11 小时前
【C/C++】指针
c语言·c++·笔记·学习
武文斌7711 小时前
项目学习总结:LVGL图形参数动态变化、开发板的GDB调试、sqlite3移植、MQTT协议、心跳包
linux·开发语言·网络·arm开发·数据库·嵌入式硬件·学习