机器学习零基础小白指南---- 线性代数入门

前言

线性代数是机器学习的基石。在掌握机器学习的实战技巧之前,数学基础是绕不过去的一环。本文从零基础视角,通过简明易懂的方式,带你掌握线性代数的核心概念,帮助你构建机器学习的数据表示与运算基础。

为什么从线性代数开始?
  • 数据表示:机器学习中的数据多以矩阵或向量形式表示,线性代数是理解这些数据的语言。
  • 模型构建:从线性回归到神经网络,矩阵运算是核心。
  • 特征变换:降维、特征提取等技术都依赖线性代数。

一、向量:数据的基本单元

1.1 向量的定义

向量是线性代数的核心概念之一,可看作一组有序数值的集合,用于描述对象的特征。

例子

描述一个人的体型:

  • 身高:170 厘米
  • 体重:65 公斤
  • 年龄:30 岁

这些特征可以组合为一个向量:

v = \[170, 65, 30

]

1.2 向量的维度与表示
  • 维度:向量元素的数量。例如,向量 (v = [170, 65, 30]) 是三维向量。
  • 表示方法
    • 数学形式:列向量或行向量

      v = \\begin{bmatrix} 170 \\ 65 \\ 30 \\end{bmatrix},\\quad v = \[170, 65, 30

      ]

    • 编程形式(Python):

      python 复制代码
      import numpy as np
      v = np.array([[170], [65], [30]])  # 列向量
1.3 向量的基本运算
  1. 向量加法

    a = \[1, 2\],\\quad b = \[3, 4\],\\quad a + b = \[4, 6

    ]
    Python实现:
python 复制代码
a = np.array([1, 2])
b = np.array([3, 4])
print(a + b)
  1. 数乘

    c \\cdot v = \[c \\cdot v_1, c \\cdot v_2

    ]
    例子:

    2 \\cdot \[3, 4\] = \[6, 8

    ]
    Python实现:
python 复制代码
v = np.array([3, 4])
c = 2
print(c * v)
  1. 向量的长度(范数)

    \|v\| = \\sqrt{v_1\^2 + v_2\^2 + \\dots + v_n\^2}

    例子:

    v = \[3, 4\],\\quad \|v\| = \\sqrt{3\^2 + 4\^2} = 5

    Python实现:
python 复制代码
from numpy.linalg import norm
v = np.array([3, 4])
print(norm(v))

二、矩阵:多维数据的集合

2.1 什么是矩阵?

矩阵是一个二维数组,由行和列组成,用于表示数据集、模型参数和特征变换。

例子:房价数据集

面积(㎡) 房龄(年) 房价(万元)
50 5 100
100 10 200
150 8 300

对应的矩阵表示:

X = \\begin{bmatrix} 50 \& 5 \\ 100 \& 10 \\ 150 \& 8 \\end{bmatrix}, \\quad y = \\begin{bmatrix} 100 \\ 200 \\ 300 \\end{bmatrix}

2.2 矩阵的运算
  1. 矩阵加法
    两个相同维度的矩阵逐元素相加。

    A = \\begin{bmatrix} 1 \& 2 \\ 3 \& 4 \\end{bmatrix}, \\quad B = \\begin{bmatrix} 5 \& 6 \\ 7 \& 8 \\end{bmatrix}, \\quad A + B = \\begin{bmatrix} 6 \& 8 \\ 10 \& 12 \\end{bmatrix}

    Python实现:
python 复制代码
A = np.array([[1, 2], [3, 4]])
B = np.array([[5, 6], [7, 8]])
print(A + B)
  1. 矩阵乘法

    C = A \\cdot B

    规则:若 (A) 为 (m \times n) 矩阵,(B) 为 (n \times p) 矩阵,则结果为 (m \times p) 矩阵。
    Python实现:
python 复制代码
C = A.dot(B)  # 或 np.matmul(A, B)

三、矩阵的高级操作

3.1 矩阵的逆

定义:若存在矩阵 (A^{-1}),使得 (A \cdot A^{-1} = I) (单位矩阵),则 (A^{-1}) 为 (A) 的逆矩阵。

计算公式 (对于 (2 \times 2) 矩阵):

A = \\begin{bmatrix} a \& b \\ c \& d \\end{bmatrix},\\quad A\^{-1} = \\frac{1}{ad - bc} \\begin{bmatrix} d \& -b \\ -c \& a \\end{bmatrix}

Python实现:

python 复制代码
A = np.array([[4, 7], [2, 6]])
A_inv = np.linalg.inv(A)
print(A_inv)

四、矩阵在机器学习中的应用

4.1 线性回归中的矩阵运算

线性回归目标:找到参数向量 (\theta),使得

y = X\\theta

通过最小化误差:

\\min_\\theta \|X\\theta - y\|\^2

正规方程解:

\\theta = (X\^T X)\^{-1} X\^T y

Python实现:

python 复制代码
X = np.array([[1, 50], [1, 100], [1, 150]])
y = np.array([100, 200, 300])
theta = np.linalg.inv(X.T.dot(X)).dot(X.T).dot(y)
print("参数向量 theta:", theta)

结语

线性代数是理解机器学习算法的关键工具。希望本文能帮助你从零基础逐步建立数学认知,为后续学习奠定基础。如果你有任何问题或建议,欢迎评论交流!

相关推荐
做cv的小昊几秒前
【TJU】研究生应用统计学课程笔记(6)——第二章 参数估计(2.4 区间估计)
人工智能·笔记·线性代数·算法·机器学习·数学建模·概率论
Echo_NGC223713 分钟前
【论文解读】Attention Is All You Need —— AI 时代的“开山之作“,经典中的经典(transformer小白导读)
人工智能·python·深度学习·神经网络·机器学习·conda·transformer
falldeep24 分钟前
五分钟了解OpenClaw底层架构
人工智能·算法·机器学习·架构
FserSuN26 分钟前
Machine Learning Specialization - Week 1, 1-8学习总结
人工智能·学习·机器学习
weixin_4462608530 分钟前
模型能力深度对决:GPT-4o、Claude 3.5和DeepSeek V系列模型的横向评测与未来趋势洞察
人工智能·算法·机器学习
Mr数据杨1 小时前
泰坦尼克乘客生存预测与风险决策建模
机器学习·数据分析·kaggle
Godspeed Zhao2 小时前
具身智能中的传感器技术41——事件相机1
人工智能·科技·机器学习·具身智能·事件相机
EnCi Zheng2 小时前
02a-什么是矩阵
线性代数·矩阵
AI科技星2 小时前
全域数学视角下N维广义数系的推广与本源恒等式构建【乖乖数学】
人工智能·机器学习·数学建模·数据挖掘
程序媛小鱼2 小时前
吴恩达 Agent Skills 学习笔记
机器学习