【大数据】机器学习-----最开始的引路

以下是关于机器学习的一些基本信息,包括基本术语、假设空间、归纳偏好、发展历程、应用现状和代码示例:

一、基本术语

  • 样本(Sample)

    • 也称为实例(Instance)或数据点(Data Point),是关于一个对象的描述,通常表示为一个特征向量。例如,对于一个水果分类问题,一个苹果的样本可以表示为 [红色,圆形,直径 7cm]
  • 特征(Feature)

    • 样本的属性,用于描述样本的某些方面。上述水果例子中的"红色"、"圆形"和"直径 7cm"都是特征。特征可以是离散的(如颜色)或连续的(如直径)。
  • 标签(Label)

    • 样本的真实结果或类别,是我们希望预测的值。对于分类问题,它是类别标签,如"苹果"或"橙子";对于回归问题,它是一个实数,如房价预测中的房价。
  • 数据集(Dataset)

    • 一组样本的集合。通常分为训练集(Training Set)、验证集(Validation Set)和测试集(Test Set)。
    • 训练集用于训练模型,验证集用于调整模型的超参数,测试集用于评估模型的性能。
  • 模型(Model)

    • 机器学习算法学习得到的函数,用于对新样本进行预测。可以是线性模型(如 y = w0 + w1*x1 + w2*x2)、决策树、神经网络等。
  • 训练(Training)

    • 让模型从训练集中学习的过程,通过调整模型的参数,使其在训练集上表现更好。

二、假设空间

  • 定义

    • 是所有可能的假设(Hypothesis)的集合,假设是模型可能的函数形式。例如,对于线性回归问题,假设空间可以是所有可能的线性函数 y = w0 + w1*x1 + w2*x2 +...+ wn*xn,其中 w0, w1,..., wn 可以取不同的值。
  • 大小和搜索

    • 假设空间的大小取决于模型的复杂度和特征的数量。在某些情况下,假设空间可能是无限大的,例如神经网络的假设空间非常大,因为有很多参数可以调整。
    • 机器学习算法的任务是在假设空间中搜索一个或多个假设,使得在训练集上的性能最好。

三、归纳偏好

  • 定义

    • 对于多个与训练集一致的假设,算法会偏好其中的某些假设,这种偏好称为归纳偏好。例如,在决策树算法中,偏好更简单的树(奥卡姆剃刀原则)。
  • 重要性

    • 归纳偏好是机器学习算法的重要部分,因为在没有归纳偏好的情况下,算法在训练集上可能会有多个等效的假设,无法确定使用哪个。不同的归纳偏好会导致不同的模型,对新数据的预测也可能不同。

四、发展历程

  • 早期阶段(20世纪50年代 - 80年代)

    • 以符号主义为主,开发了一些基于规则和逻辑的系统,如感知机(Perceptron),是最早的神经网络模型。但早期的神经网络受到计算能力和数据量的限制。
  • 统计学习阶段(20世纪80年代 - 21世纪初)

    • 以支持向量机(SVM)、决策树(如ID3、C4.5、CART)、朴素贝叶斯等为代表,这些算法基于统计理论,在很多任务上取得了很好的性能。
  • 深度学习阶段(21世纪初 - 现在)

    • 随着大数据和强大计算能力(GPU 等)的发展,深度学习兴起,以深度神经网络(如多层感知机、卷积神经网络 CNN、循环神经网络 RNN 及其变体 LSTM、GRU 等)为代表,在图像识别、语音识别、自然语言处理等领域取得了突破性进展。

五、应用现状

  • 图像识别

    • 应用于人脸识别(如手机解锁、安防监控)、物体检测(如自动驾驶中的行人检测、交通标志识别)、医学图像分析(如肿瘤检测)等。
  • 自然语言处理

    • 包括机器翻译、文本分类(如垃圾邮件过滤)、情感分析、问答系统(如智能客服)等。
  • 推荐系统

    • 为用户推荐商品(如电商平台)、电影(如 Netflix)、音乐(如 Spotify)等,使用协同过滤、矩阵分解等技术。

六、代码示例(使用 Python 和 Scikit-learn 库进行简单的线性回归)

python 复制代码
import numpy as np
from sklearn.linear_model import LinearRegression
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error


# 创建一个简单的数据集
np.random.seed(42)
X = np.random.rand(100, 1)  # 特征矩阵,100 个样本,1 个特征
y = 2 + 3 * X + np.random.randn(100, 1)  # 真实函数为 y = 2 + 3x + 噪声


# 划分数据集为训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)


# 创建线性回归模型
model = LinearRegression()


# 训练模型
model.fit(X_train, y_train)


# 输出模型的系数
print(f"模型的系数: {model.coef_}")
print(f"模型的截距: {model.intercept_}")


# 预测
y_pred = model.predict(X_test)


# 计算均方误差
mse = mean_squared_error(y_test, y_pred)
print(f"均方误差: {mse}")


# 使用模型进行新的预测
new_x = np.array([[0.5]])
prediction = model.predict(new_x)
print(f"对新样本 {new_x} 的预测值: {prediction}")

代码解释

  • 首先,使用 numpy 生成一个简单的数据集,其中 yx 的线性函数加上一些噪声。
  • 使用 train_test_split 函数将数据集划分为训练集和测试集。
  • 创建一个 LinearRegression 模型。
  • 使用 fit 方法训练模型。
  • 输出模型的系数和截距。
  • 使用 predict 方法进行预测,并计算预测结果与真实结果的均方误差。
  • 最后,使用训练好的模型对新样本进行预测。

通过上述代码,可以对机器学习的基本流程有一个简单的认识,包括数据生成、模型创建、训练、评估和预测。在实际应用中,可以使用更复杂的数据集和不同的模型,根据具体任务选择合适的算法和技术。同时,需要注意调整超参数、防止过拟合和数据预处理等重要问题。

什么是过拟合?

过拟合(Overfitting)

一、定义

过拟合是指机器学习模型在训练数据上表现得非常好,但在未见过的测试数据或新数据上表现不佳的现象。在这种情况下,模型过度地学习了训练数据中的噪声和细节,而没有很好地捕捉到数据中的一般规律,导致模型的泛化能力差。

二、产生原因

  • 模型复杂度

    • 当模型的复杂度相对训练数据量过高时,模型有足够的能力去记住训练数据中的每一个细节,包括噪声。例如,在多项式回归中,使用非常高的多项式次数,可能会使曲线经过训练数据中的每一个点,但这样的曲线对于新的数据点预测效果很差。
    • 对于决策树来说,如果允许树的深度很深,会导致每个叶子节点只包含少量的样本,可能会过度拟合训练数据中的噪声和异常值。
  • 数据量

    • 训练数据量过少时,模型更容易记住训练数据而不是学习到数据中的一般规律。例如,在只有几个样本的数据集上训练一个复杂的深度学习模型,模型可能会过度拟合这些样本。
  • 训练时间过长

    • 在一些迭代训练的算法中,如神经网络的训练,如果训练的轮数(epochs)过多,模型可能会开始过度拟合训练数据。

三、示例

假设我们有一个简单的分类任务,要将蓝色和红色的点分开。

正常拟合

  • 模型学习到了数据的一般规律,能够找到一条平滑的边界将蓝色和红色的点分开,在训练数据和新数据上都有较好的性能。

过拟合

  • 模型为了尽可能地将训练集中的每个点都正确分类,产生了一条非常复杂的边界,该边界可能会围绕着训练数据点曲折,对训练数据的拟合非常好,但对于新数据可能会出现很多误分类,因为它对训练数据中的噪声也进行了拟合。

四、解决方法

  • 增加数据量

    • 更多的数据可以使模型学习到更一般的规律,减少对训练数据的过度依赖。可以通过数据增强(Data Augmentation)技术,在图像识别中,通过旋转、翻转、裁剪等方式增加图像数据的数量。
  • 正则化

    • L1 和 L2 正则化
      • 在损失函数中加入正则化项,如 L1 范数(||w||_1)或 L2 范数(||w||_2),使模型的参数不会过大。例如在岭回归(Ridge Regression)中使用 L2 正则化,在 Lasso 回归中使用 L1 正则化,通过惩罚较大的参数值,防止模型过度依赖某些特征,使其更具泛化能力。
    • Dropout
      • 主要用于神经网络,在训练过程中随机将一部分神经元的输出置为 0,防止神经元之间的协同适应,使模型不过度依赖某些神经元,提高泛化能力。
  • 简化模型

    • 降低多项式次数:在多项式回归中,使用较低的多项式次数。
    • 限制决策树的深度或叶子节点数量:在决策树算法中,通过剪枝(Pruning)技术,剪掉一些不必要的分支,降低模型的复杂度。
  • 早停法(Early Stopping)

    • 在训练过程中,监控模型在验证集上的性能,当性能不再提升甚至下降时,停止训练,防止模型过度训练。

**

过拟合是机器学习中一个重要的问题,需要通过合理的模型选择、数据处理和训练策略来避免,以确保模型具有良好的泛化能力,能够在新的数据上取得较好的性能。在实践中,需要不断调整模型和训练参数,观察模型在验证集和测试集上的性能,避免过拟合问题。

**

相关推荐
说私域17 分钟前
社群团购项目运营策略的深度剖析:融合链动2+1模式、AI智能名片与S2B2C商城小程序的综合应用
大数据·人工智能·小程序
IT古董38 分钟前
【机器学习】主动学习-增加标签的操作方法-流式选择性采样(Stream-based selective sampling)
人工智能·学习·机器学习
被制作时长两年半的个人练习生41 分钟前
【AscendC】tiling方案设计不当引起的一个时隐时现的bug
人工智能·bug·算子开发·ascendc
KeyPan1 小时前
【机器学习:十九、反向传播】
人工智能·深度学习·机器学习
小白学大数据3 小时前
jsdom爬虫程序中eBay主页内容爬取的异步处理
大数据·爬虫
埃菲尔铁塔_CV算法3 小时前
双线性插值算法:原理、实现、优化及在图像处理和多领域中的广泛应用与发展趋势(二)
c++·人工智能·算法·机器学习·计算机视觉
程序猿阿伟3 小时前
《AI赋能鸿蒙Next,打造极致沉浸感游戏》
人工智能·游戏·harmonyos
遇健李的幸运3 小时前
深入浅出:Agent如何调用工具——从OpenAI Function Call到CrewAI框架
人工智能
天天讯通3 小时前
AI语音机器人大模型是什么?
人工智能·机器人
说私域4 小时前
微商关系维系与服务创新:链动2+1模式、AI智能名片与S2B2C商城小程序的应用研究
人工智能·小程序