算法金 | 吴恩达:机器学习的六个核心算法!

大侠幸会,在下全网同名「算法金」 0 基础转 AI 上岸,多个算法赛 Top 「日更万日,让更多人享受智能乐趣」

人工智能领域的权威吴恩达教授,在其创立的《The Batch》周报中发表了一篇博文,概述了机器学习领域六种基础算法的历史和重要性。他强调了在这一领域不断学习和更新知识的必要性。

这些算法包括线性回归、逻辑回归、梯度下降、神经网络、决策树和k均值聚类算法,它们是机器学习进步的基石。本文将进一步探讨这些算法的背景、原理、优缺点及应用场景。

1. 线性回归

背景:

线性回归是最古老也是最简单的回归算法之一,其历史可以追溯到 18 世纪,由卡尔·弗里德里希·高斯(Carl Friedrich Gauss)提出。最初的应用主要集中在天文学和物理学中,用于预测轨迹和其他连续变量。这种方法在统计学中占据了重要地位,成为许多复杂算法的基础。随着计算技术的进步,线性回归逐渐在经济学、工程学和社会科学等领域得到广泛应用。

原理:

线性回归通过寻找数据点之间的最佳拟合直线,来预测目标变量。其数学模型为:

其中,( y ) 是目标变量,( x ) 是特征变量,( \beta_0 ) 和 ( \beta_1 ) 分别为截距和斜率,( \epsilon ) 是误差项。我们通过最小化均方误差(Mean Squared Error, MSE)来估计这些参数:

步骤:

  1. 数据准备:收集和准备数据,包括数据清洗和特征选择。
  2. 模型训练:使用训练数据拟合线性回归模型,通过最小二乘法估计参数 ( \beta_0 ) 和 ( \beta_1 )。
  3. 模型评估:使用测试数据评估模型性能,常用评估指标包括 ( R^2 ) 值和均方误差。
  4. 预测:使用训练好的模型进行预测。

优缺点:

优点:

  • 简单易懂:线性回归模型结构简单,容易理解和实现。
  • 计算速度快:计算复杂度低,适用于大规模数据集。
  • 解释性强:模型参数具有明确的统计意义,可以解释特征对目标变量的影响。

缺点:

  • 线性假设:假设特征和目标变量之间是线性关系,无法捕捉非线性关系。
  • 对异常值敏感:异常值(outliers)会显著影响模型参数的估计。
  • 多重共线性:特征之间的多重共线性会导致参数估计不稳定。

(图:对异常值敏感)

应用场景:

线性回归在经济学、金融学、社会学等领域有广泛应用。以下是一些具体的应用场景:

  1. 经济学:线性回归用于预测消费支出和收入之间的关系。例如,经济学家可以通过分析历史数据,建立模型来预测未来的消费趋势。
  2. 金融学:线性回归用于股票价格预测和风险管理。例如,金融分析师可以使用历史股票价格数据,建立模型来预测未来的价格走势。
  3. 社会学:线性回归用于研究社会现象之间的关系。例如,社会学家可以分析教育水平和收入之间的关系,发现教育对收入的影响。

案例分析:

import numpy as np
import matplotlib.pyplot as plt
from sklearn.linear_model import LinearRegression

# 设置matplotlib支持中文显示
plt.rcParams['font.sans-serif'] = ['SimHei'] # 设置中文显示
plt.rcParams['axes.unicode_minus'] = False # 正确显示负号

# 创建武侠世界中的功力(X)与成名年数(y)的数据
X = np.array([1, 2, 3, 4, 5, 6, 7, 8, 9, 10]).reshape(-1, 1) # 功力等级
y = np.array([2, 3, 3.5, 5, 6, 7.5, 8, 9, 10.5, 11]) # 成名年数

# 使用线性回归模型
model = LinearRegression()
model.fit(X, y) # 训练模型

# 预测功力等级对应的成名年数
X_predict = np.array([11, 12, 13]).reshape(-1, 1) # 新的功力等级
y_predict = model.predict(X_predict) # 进行预测

# 绘制功力与成名年数的关系
plt.scatter(X, y, color='red', label='实际成名年数') # 原始数据点
plt.plot(X, model.predict(X), color='blue', label='功力成名模型') # 拟合的直线
plt.scatter(X_predict, y_predict, color='green', label='预测成名年数') # 预测点
plt.xlabel('功力等级')
plt.ylabel('成名年数')
plt.title('武侠世界的功力与成名年数关系')
plt.legend()
plt.show()

我们首先创建了一组简单的数据,模拟武侠世界中的人物功力等级与他们成名所需年数之间的关系。

然后,我们使用了线性回归模型来拟合这些数据,并对新的功力等级进行了成名年数的预测。

最后,通过绘图展示了功力等级与成名年数之间的线性关系,以及模型的预测效果。

添加图片注释,不超过 140 字(可选)

2. 逻辑回归

背景:

逻辑回归(Logistic Regression)最早由英国统计学家 David Cox 于 1958 年提出,尽管其名称中包含"回归"二字,但它实际上是一种分类算法,主要用于解决二分类问题。随着计算能力的提升和数据量的增加,逻辑回归在医学、金融、社会科学等领域得到了广泛应用,成为统计学习和机器学习的重要工具之一。

原理:

逻辑回归通过一个逻辑函数(logistic function)将线性回归的输出映射到一个 (0, 1) 区间,从而进行二分类。其数学模型为:

其中,( P ) 是事件发生的概率,( x ) 是特征变量,( \beta_0 ) 和 ( \beta_1 ) 分别为截距和系数。最终,通过最大似然估计法(Maximum Likelihood Estimation, MLE)来估计这些参数。

特别的,Sigmoid 函数

Sigmoid 函数:逻辑回归中使用的Sigmoid函数 能将任意实数值映射到 (0, 1) 区间,便于解释为概率。

一图胜千言:

具体步骤包括:

  1. 初始化参数:随机初始化参数 ( \beta_0 ) 和 ( \beta_1 )。
  2. 计算预测值:根据当前参数计算每个样本的预测概率 ( \hat{P} )。
  3. 计算损失函数:损失函数通常采用对数似然函数(Log-Likelihood Function):
  1. 优化参数:通过梯度下降法或其他优化算法,最大化对数似然函数,更新参数。

优缺点:

优点:

  • 简单易解释:模型输出的是事件发生的概率,具有直观的解释性。
  • 计算效率高:计算复杂度低,适用于大规模数据集。
  • 稳健性强:在处理缺失值和异常值方面表现良好。

缺点:

  • 线性假设:假设特征和目标变量之间是线性关系,对于非线性关系效果较差。
  • 只能处理二分类问题:虽然可以通过扩展(如一对多、多对多)处理多分类问题,但效果不如专门的多分类算法。
  • 对特征独立性要求高:特征之间的高度相关性会影响模型的稳定性和准确性。

应用场景:

逻辑回归在医学诊断、市场营销、信用评分等领域有广泛应用。以下是一些具体的应用场景:

  1. 医学诊断:逻辑回归用于预测患者是否患有某种疾病。例如,通过患者的各项检查指标,建立模型预测某种疾病的发生概率。
  2. 市场营销:逻辑回归用于预测用户是否会购买某产品。例如,通过用户的浏览行为、历史购买记录等,预测用户的购买意图。
  3. 信用评分:逻辑回归用于评估借款人的违约风险。例如,通过借款人的收入、信用记录等信息,预测其是否会违约。

案例分析:

from sklearn.linear_model import LogisticRegression
from sklearn.datasets import make_classification
import matplotlib.pyplot as plt
import numpy as np

# 生成模拟的武侠世界功力和内功心法数据集
X, y = make_classification(n_samples=100, n_features=2, n_informative=2, n_redundant=0, n_clusters_per_class=1, random_state=42)

# 创建逻辑回归模型对象
lr = LogisticRegression()

# 训练模型
lr.fit(X, y)

# 定义决策边界绘制函数
def plot_decision_boundary(X, y, model):
    # 设置最小和最大值,以及增量
    x_min, x_max = X[:, 0].min() - 1, X[:, 0].max() + 1
    y_min, y_max = X[:, 1].min() - 1, X[:, 1].max() + 1
    xx, yy = np.meshgrid(np.arange(x_min, x_max, 0.1),
                         np.arange(y_min, y_max, 0.1))

    # 预测整个网格的值
    Z = model.predict(np.c_[xx.ravel(), yy.ravel()])
    Z = Z.reshape(xx.shape)

    # 绘制决策边界和散点图
    plt.contourf(xx, yy, Z, alpha=0.4)
    plt.scatter(X[:, 0], X[:, 1], c=y, s=20, edgecolor='k')
    plt.xlabel('功力')
    plt.ylabel('内功心法')
    plt.title('武侠世界中的高手分类图')

# 绘制决策边界和数据点
plot_decision_boundary(X, y, lr)
plt.show()

我们首先使用make_classification函数生成了一组模拟的二维数据,模拟武侠世界中的人物根据其功力和内功心法被分为两类:普通武者和高手。

然后,我们训练了一个逻辑回归模型并绘制了决策边界,以及不同类别的样本点,直观展示了模型的分类效果。

在图形中,我们可以看到如何根据功力和内功心法来区分不同的武侠人物。

3. 梯度下降

背景:

梯度下降法(Gradient Descent)由法国数学家 Augustin-Louis Cauchy 在 1847 年提出,是一种用于寻找函数最小值(或最大值)的迭代优化算法。梯度下降在机器学习中尤为重要,因为它是许多算法(如线性回归、逻辑回归和神经网络)中用于参数优化的核心方法。

原理:

梯度下降的基本思想是从一个初始点开始,沿着函数的负梯度方向迭代更新参数,以最小化损失函数。梯度是函数在该点的偏导数向量,表示函数在该点的变化方向。梯度下降的更新公式为:

具体步骤包括:

  1. 初始化参数:随机初始化参数 ( \theta )。
  2. 计算梯度:计算损失函数在当前参数下的梯度。
  3. 更新参数:根据梯度更新参数。
  4. 迭代:重复步骤 2 和 3,直到损失函数收敛或达到最大迭代次数。

类型:

梯度下降有几种常见的变种:

  1. 批量梯度下降(Batch Gradient Descent):使用整个数据集计算梯度,每次迭代更新参数。适用于小数据集。
  2. 随机梯度下降(Stochastic Gradient Descent, SGD):每次迭代仅使用一个样本计算梯度,更新参数。适用于大数据集,但收敛较慢且波动较大。
  3. 小批量梯度下降(Mini-batch Gradient Descent):每次迭代使用一个小批量样本计算梯度,更新参数。结合了批量梯度下降和随机梯度下降的优点。

优缺点:

优点:

  • 简单易实现:梯度下降算法简单,容易实现。
  • 适用广泛:可用于优化各种损失函数,广泛应用于不同的机器学习模型。
  • 计算效率高:特别是小批量梯度下降,在处理大规模数据时效率高。

缺点:

  • 学习率选择困难:学习率太大可能导致不收敛,学习率太小则收敛速度慢。
  • 容易陷入局部最优:在非凸函数中,梯度下降可能陷入局部最优解。
  • 收敛速度慢:在某些情况下,梯度下降的收敛速度较慢,特别是接近最优解时。

应用场景:

梯度下降广泛应用于各种机器学习模型的训练过程中。以下是一些具体的应用场景:

  1. 线性回归:在线性回归模型中,梯度下降用于优化模型参数,使得预测误差最小化。
  2. 逻辑回归:在逻辑回归模型中,梯度下降用于最大化对数似然函数,优化分类模型。
  3. 神经网络:在神经网络中,梯度下降(特别是反向传播算法)用于调整网络的权重,以最小化预测误差。

案例分析:

import numpy as np
import matplotlib.pyplot as plt

# 示例数据
X = np.array([[1, 1], [1, 2], [2, 2], [2, 3]])
y = np.dot(X, np.array([1, 2])) + 3

# 初始化参数,考虑偏置项
theta = np.random.randn(3, 1)
iterations = 1000
alpha = 0.01

# 损失函数
def compute_cost(X, y, theta):
    m = len(y)
    predictions = X.dot(theta)
    cost = (1 / 2 * m) * np.sum(np.square(predictions - y))
    return cost

# 梯度下降
def gradient_descent(X, y, theta, alpha, iterations):
    m = len(y)
    cost_history = np.zeros(iterations)

    for i in range(iterations):
        gradients = X.T.dot(X.dot(theta) - y) / m
        theta = theta - alpha * gradients
        cost_history[i] = compute_cost(X, y, theta)

    return theta, cost_history

# 添加偏置项
X_b = np.c_[np.ones((len(X), 1)), X]

# 运行梯度下降
theta, cost_history = gradient_descent(X_b, y, theta, alpha, iterations)

# 结果可视化
plt.plot(range(1, iterations + 1), cost_history, 'b-')
plt.xlabel('迭代次数')
plt.ylabel('损失值')
plt.title('梯度下降优化损失值')
plt.show()

print(f"优化后的参数: {theta.ravel()}")

4. 决策树

背景:

决策树(Decision Tree)是一种基于树形结构的监督学习算法,用于分类和回归任务。决策树算法最早由 Ross Quinlan 在 20 世纪 80 年代提出,包括经典的 ID3、C4.5 和 CART 算法。决策树的直观和易于解释的特点,使其在金融、医疗和市场营销等领域得到了广泛应用。

原理:

决策树通过递归地将数据集分割成更小的子集来构建树状模型。每个内部节点代表一个特征,每个分支代表该特征的一个取值,每个叶节点代表一个类别或预测值。决策树的构建过程包括以下步骤:

  1. 选择最优特征:根据某种指标(如信息增益、基尼系数)选择最优特征进行分割。
  2. 分割数据集:根据选择的特征将数据集分割成子集。
  3. 递归构建子树:对子集递归调用上述步骤,直到满足停止条件(如所有数据点属于同一类别或达到最大深度)。

信息增益:信息增益用于衡量某一特征对数据集进行分割时所带来的信息熵的减少。信息熵(Entropy)表示数据集的纯度,计算公式为:

基尼系数:基尼系数(Gini Index)用于衡量数据集的不纯度,计算公式为:

优缺点:

优点:

  • 直观易懂:决策树的结构类似于人类的决策过程,容易理解和解释。
  • 无需特征缩放:决策树对特征的缩放不敏感,不需要特征标准化。
  • 处理多类型数据:能够处理数值型和分类型特征。

缺点:

  • 容易过拟合:决策树容易对训练数据过拟合,需要剪枝(Pruning)等技术来防止过拟合。
  • 不稳定性:对数据的微小变化敏感,可能导致结构大幅变化。
  • 偏向于高频特征:在数据不平衡的情况下,决策树容易偏向于那些取值较多的特征。

应用场景:

决策树在金融、医疗、市场营销等领域有广泛应用。以下是一些具体的应用场景:

  1. 信用评分:决策树用于评估借款人的违约风险。例如,通过借款人的收入、信用记录等信息,预测其是否会违约。
  2. 疾病诊断:决策树用于预测患者是否患有某种疾病。例如,通过患者的病史、体检数据等信息,预测其是否患有某种疾病。
  3. 客户分类:决策树用于市场营销中的客户细分。例如,根据客户的购买行为、人口统计数据等,分类客户群体。

案例分析:

让我们来看一个具体的案例:使用决策树进行客户分类。假设我们有一个数据集,其中包含客户的年龄、收入和购买情况(0 表示未购买,1 表示购买)。我们可以使用决策树来建立客户特征与购买情况之间的关系模型。

from sklearn.datasets import make_classification
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier
import matplotlib.pyplot as plt
import numpy as np

# 生成武侠风格的数据,确保所有特征值为正数
X, y = make_classification(n_samples=200, n_features=2, n_redundant=0, n_informative=2,
                           n_clusters_per_class=1, random_state=42)
X += np.abs(X.min())  # 平移数据确保为正

# 将数据集分为训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)

# 创建决策树模型,并设置最大深度为3
dt = DecisionTreeClassifier(max_depth=3)

# 训练模型
dt.fit(X_train, y_train)

# 绘制数据点和决策边界
def plot_decision_boundary(model, X, y):
    # 设置最小和最大值,以及增量
    x_min, x_max = X[:, 0].min() - 1, X[:, 0].max() + 1
    y_min, y_max = X[:, 1].min() - 1, X[:, 1].max() + 1
    xx, yy = np.meshgrid(np.arange(x_min, x_max, 0.01),
                         np.arange(y_min, y_max, 0.01))

    # 预测整个网格的值
    Z = model.predict(np.c_[xx.ravel(), yy.ravel()])
    Z = Z.reshape(xx.shape)

    # 绘制决策边界
    plt.contourf(xx, yy, Z, alpha=0.4)
    # 绘制不同类别的样本点
    plt.scatter(X[y == 0][:, 0], X[y == 0][:, 1], c='red', marker='x', label='普通武者')
    plt.scatter(X[y == 1][:, 0], X[y == 1][:, 1], c='blue', marker='o', label='武林高手')
    plt.xlabel('功力值')
    plt.ylabel('内功心法')
    plt.title('武侠世界中的武者分类图')
    plt.legend()

# 绘制决策边界和数据点
plot_decision_boundary(dt, X, y)
plt.show()

这段代码首先生成了一组包含200个样本的武侠风格数据,每个样本有两个特征:功力值和内功心法,目标是分类武者是否为武林高手。

然后,我们使用DecisionTreeClassifier创建了一个决策树模型并对其进行训练。

通过定义plot_decision_boundary函数,我们绘制了模型的决策边界,并使用不同颜色和形状标记来区分普通武者和武林高手,直观地展示了决策树在二分类任务中的分类效果。

(你可以修改 max_depth 看看有什么变化)

5. 神经网络

背景:

神经网络(Neural Networks)起源于 20 世纪 40 年代,由 Warren McCulloch 和 Walter Pitts 提出。他们的工作灵感来源于人脑的结构和功能,希望通过数学模型模拟生物神经元的工作方式。神经网络的发展经历了多次起伏,直到 2006 年 Geoffrey Hinton 等人提出深度学习(Deep Learning)的概念,神经网络才重新获得关注,并迅速成为人工智能领域的热点。

原理:

神经网络由多个层级的节点(神经元)组成,每个节点通过加权连接传递信号。一个典型的神经网络结构包括输入层、隐藏层和输出层。输入层接收原始数据,隐藏层通过加权求和和激活函数处理数据,输出层生成最终的预测结果。每层节点的输出由前一层节点的加权和通过激活函数计算得到:

其中,( a ) 是输出,( W ) 是权重矩阵,( x ) 是输入向量,( b ) 是偏置向量,( f ) 是激活函数。

激活函数:

  • Sigmoid:将输入映射到 (0, 1) 区间,适用于二分类问题。
  • ReLU(Rectified Linear Unit):将负值映射为 0,正值保持不变,适用于深层网络。
  • Tanh:将输入映射到 (-1, 1) 区间,适用于需要归一化的场景。

训练: 神经网络通过反向传播算法(Backpropagation)进行训练。反向传播通过计算损失函数的梯度,调整网络中的权重和偏置,以最小化预测误差。训练过程包括以下步骤:

  1. 正向传播:计算每层的输出,直到生成最终预测结果。
  2. 计算损失:使用损失函数(如均方误差、交叉熵)计算预测结果与真实值之间的误差。
  3. 反向传播:计算损失函数对每个权重和偏置的梯度。
  4. 参数更新:使用梯度下降或其他优化算法更新权重和偏置。

优缺点:

优点:

  • 强大的非线性建模能力:能够捕捉复杂的非线性关系,适用于各种模式识别任务。
  • 自动特征提取:隐藏层能够自动提取数据的高层次特征,减少了特征工程的工作量。
  • 灵活性强:可以用于回归、分类、生成模型等多种任务。

缺点:

  • 训练时间长:深层神经网络的训练需要大量的计算资源和时间。
  • 需要大量数据:需要大量的标注数据才能有效训练,数据不足时容易过拟合。
  • 难以解释:网络内部的权重和偏置难以解释,模型的可解释性较差。

应用场景:

神经网络在图像识别、语音识别、自然语言处理等领域有广泛应用。以下是一些具体的应用场景:

  1. 图像识别:神经网络用于分类和识别图像中的物体。例如,卷积神经网络(CNN)在图像分类任务中表现出色。
  2. 语音识别:神经网络用于将语音信号转换为文本。例如,循环神经网络(RNN)和长短期记忆网络(LSTM)在语音识别任务中有广泛应用。
  3. 自然语言处理:神经网络用于文本分类、机器翻译、文本生成等任务。例如,基于注意力机制的 Transformer 模型在机器翻译中取得了显著进展。

案例分析:

让我们来看一个具体的案例:使用神经网络进行手写数字识别。假设我们使用经典的 MNIST 数据集,其中包含 28x28 像素的手写数字图片,每张图片对应一个数字标签(0-9)。

import tensorflow as tf
from tensorflow.keras.datasets import mnist
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense, Flatten
from tensorflow.keras.utils import to_categorical

# 加载数据
(X_train, y_train), (X_test, y_test) = mnist.load_data()

# 预处理数据
X_train = X_train.reshape(-1, 28 * 28) / 255.0
X_test = X_test.reshape(-1, 28 * 28) / 255.0
y_train = to_categorical(y_train, 10)
y_test = to_categorical(y_test, 10)

# 创建模型
model = Sequential([
    Flatten(input_shape=(28 * 28,)),
    Dense(128, activation='relu'),
    Dense(64, activation='relu'),
    Dense(10, activation='softmax')
])

# 编译模型
model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])

# 训练模型
model.fit(X_train, y_train, epochs=10, batch_size=32, validation_split=0.2)

# 评估模型
loss, accuracy = model.evaluate(X_test, y_test)
print(f"Test Accuracy: {accuracy:.4f}")

在这个例子中,我们使用 TensorFlow 和 Keras 库创建了一个简单的全连接神经网络,用于识别手写数字。通过训练模型,我们可以在测试数据上评估其准确性,并可视化模型的性能。

6. K均值聚类

背景:

K均值聚类(K-means Clustering)是一种常用的无监督学习算法,用于将数据集划分为 K 个互斥的簇。该算法由 Stuart Lloyd 于 1957 年在电话信号处理研究中首次提出,1967 年由 James MacQueen 正式命名并推广应用。K均值聚类在许多领域得到广泛应用,如图像处理、市场营销、模式识别等。

原理:

K均值聚类通过迭代优化的方法,将数据点分配到 K 个簇中,使得每个簇内的数据点与簇中心(质心)之间的距离平方和最小化。具体步骤包括:

  1. 初始化中心点:随机选择 K 个初始中心点(质心)。
  2. 分配数据点:将每个数据点分配到最近的中心点所属的簇中。
  3. 更新中心点:重新计算每个簇的中心点,即簇内所有数据点的均值。
  4. 迭代:重复步骤 2 和 3,直到中心点不再发生变化或达到最大迭代次数。

算法的目标是最小化以下目标函数:

优缺点:

优点:

  • 计算效率高:算法简单易实现,计算速度快,适用于大规模数据集。
  • 结果直观:聚类结果容易理解和解释,便于后续分析和处理。
  • 适用性广:广泛应用于不同类型的数据和多种领域。

缺点:

  • 对初始值敏感:初始中心点的选择会影响最终结果,可能导致局部最优解。
  • 簇的形状限制:假设簇是球形且各方向方差相同,不适用于非球形簇。
  • 确定 K 值困难:需要事先指定 K 值,且不同 K 值会得到不同的聚类结果。

比如下图数据分布,使用 K-means 的效果就很忧伤了

应用场景:

K均值聚类在市场营销、图像处理、模式识别等领域有广泛应用。以下是一些具体的应用场景:

  1. 客户分类:K均值聚类用于市场营销中的客户细分。例如,根据客户的购买行为、人口统计数据等,将客户分为不同的群体,以便制定针对性的营销策略。
  2. 图像压缩:K均值聚类用于图像处理中的图像压缩。例如,通过聚类像素颜色,将图像中的颜色数减少,从而实现图像压缩。
  3. 模式识别:K均值聚类用于模式识别中的特征提取。例如,在手写数字识别中,通过聚类手写数字的特征,将相似的数字聚类在一起,便于后续分类。

案例分析:

让我们来看一个具体的案例:使用K均值聚类进行客户分类。假设我们有一个数据集,其中包含客户的年龄和收入。我们可以使用K均值聚类将客户分为三个群体。

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from sklearn.cluster import KMeans

# 示例数据
data = {
    'age': [25, 45, 35, 50, 23, 31, 22, 35, 42, 51],
    'income': [50000, 100000, 75000, 120000, 40000, 60000, 45000, 80000, 110000, 130000]
}
df = pd.DataFrame(data)

# 创建K均值模型
kmeans = KMeans(n_clusters=3)
kmeans.fit(df)

# 预测聚类结果
df['cluster'] = kmeans.labels_

# 可视化聚类结果
plt.scatter(df['age'], df['income'], c=df['cluster'], cmap='viridis')
plt.xlabel('Age')
plt.ylabel('Income')
plt.title('Customer Segments')
plt.show()

print(df)

在这个例子中,我们使用 sklearn 库中的 KMeans 模型来对客户的年龄和收入进行聚类。通过训练模型,我们可以将客户分为三个群体,并可视化聚类结果。同时,可以输出每个客户的聚类标签。

[ 抱个拳,总个结 ]

线性回归,一种简单而有效的回归算法,

逻辑回归,一种简单而有效的分类算法,

梯度下降,一种基本且重要的优化算法,

决策树,一种直观且易于解释的机器学习模型,

神经网络,一种强大的深度学习模型,

K均值聚类,一种简单高效的无监督学习算法,

这些基础算法构成了机器学习的核心,无论是线性回归的简洁性,还是神经网络的复杂性,都展示了它们在不同应用场景中的价值。同时,这些算法正被不断改进和创新,Enjoy

[ 算法金,碎碎念 ]

全网同名,日更万日,让更多人享受智能乐趣

烦请大侠多多 分享、在看、点赞,助力算法金又猛又持久、很黄很 BL 的日更下去;我们一起,让更多人享受智能乐趣

同时邀请大侠 关注、星标 算法金,围观日更万日,助你功力大增、笑傲江湖

相关推荐
Guofu_Liao1 小时前
大语言模型---LoRA简介;LoRA的优势;LoRA训练步骤;总结
人工智能·语言模型·自然语言处理·矩阵·llama
wxl7812275 小时前
如何使用本地大模型做数据分析
python·数据挖掘·数据分析·代码解释器
ZHOU_WUYI5 小时前
3.langchain中的prompt模板 (few shot examples in chat models)
人工智能·langchain·prompt
如若1235 小时前
主要用于图像的颜色提取、替换以及区域修改
人工智能·opencv·计算机视觉
老艾的AI世界5 小时前
AI翻唱神器,一键用你喜欢的歌手翻唱他人的曲目(附下载链接)
人工智能·深度学习·神经网络·机器学习·ai·ai翻唱·ai唱歌·ai歌曲
DK221515 小时前
机器学习系列----关联分析
人工智能·机器学习
Robot2515 小时前
Figure 02迎重大升级!!人形机器人独角兽[Figure AI]商业化加速
人工智能·机器人·微信公众平台
小尤笔记6 小时前
利用Python编写简单登录系统
开发语言·python·数据分析·python基础
FreedomLeo16 小时前
Python数据分析NumPy和pandas(四十、Python 中的建模库statsmodels 和 scikit-learn)
python·机器学习·数据分析·scikit-learn·statsmodels·numpy和pandas
浊酒南街6 小时前
Statsmodels之OLS回归
人工智能·数据挖掘·回归