【机器学习】分而知变,积而见道:微积分中的世界之思

文章目录

    • 微积分基础:理解变化与累积的数学
    • 前言
    • 一、微积分概述与基础概念
      • [1.1 微积分的定义与重要性](#1.1 微积分的定义与重要性)
        • [1.1.1 微积分的基本组成](#1.1.1 微积分的基本组成)
        • [1.1.2 微积分在机器学习中的应用](#1.1.2 微积分在机器学习中的应用)
      • [1.2 微积分的历史与发展](#1.2 微积分的历史与发展)
    • 二、极限与连续性
      • [2.1 极限的定义与计算](#2.1 极限的定义与计算)
        • [2.1.1 极限的直观理解](#2.1.1 极限的直观理解)
        • [2.1.2 极限的数学定义](#2.1.2 极限的数学定义)
        • [2.1.3 极限的计算方法](#2.1.3 极限的计算方法)
        • [2.1.4 实例:计算极限](#2.1.4 实例:计算极限)
      • [2.2 连续性的定义与性质](#2.2 连续性的定义与性质)
        • [2.2.1 连续函数的定义](#2.2.1 连续函数的定义)
        • [2.2.2 间断点的类型](#2.2.2 间断点的类型)
        • [2.2.3 连续性的性质](#2.2.3 连续性的性质)
        • [2.2.4 实例:连续性判断](#2.2.4 实例:连续性判断)
      • [2.3 实战项目:使用Python绘制函数的极限与连续性示意图](#2.3 实战项目:使用Python绘制函数的极限与连续性示意图)
        • [2.3.1 项目目标](#2.3.1 项目目标)
        • [2.3.2 Python代码实现](#2.3.2 Python代码实现)
        • [2.3.3 运行结果](#2.3.3 运行结果)
        • [2.3.4 结果解读](#2.3.4 结果解读)
    • 三、导数的概念与计算
      • [3.1 导数的定义](#3.1 导数的定义)
        • [3.1.1 导数的几何意义](#3.1.1 导数的几何意义)
        • [3.1.2 导数的物理意义](#3.1.2 导数的物理意义)
        • [3.1.3 导数的数学定义](#3.1.3 导数的数学定义)
      • [3.2 导数的计算规则](#3.2 导数的计算规则)
        • [3.2.1 基本导数法则](#3.2.1 基本导数法则)
        • [3.2.2 乘积法则与商法则](#3.2.2 乘积法则与商法则)
        • [3.2.3 链式法则(Chain Rule)](#3.2.3 链式法则(Chain Rule))
      • [3.3 实例:简单导数计算](#3.3 实例:简单导数计算)
        • [3.3.1 示例 1:多项式函数的导数](#3.3.1 示例 1:多项式函数的导数)
        • [3.3.2 示例 2:指数函数的导数](#3.3.2 示例 2:指数函数的导数)
        • [3.3.3 示例 3:商函数的导数](#3.3.3 示例 3:商函数的导数)
      • [3.4 实战项目:使用SymPy库进行符号导数计算并绘制导数曲线](#3.4 实战项目:使用SymPy库进行符号导数计算并绘制导数曲线)
        • [3.4.1 项目目标](#3.4.1 项目目标)
        • [3.4.2 Python代码实现](#3.4.2 Python代码实现)
        • [3.4.3 运行结果](#3.4.3 运行结果)
        • [3.4.4 结果解读](#3.4.4 结果解读)
    • 四、导数的应用:优化与变化
      • [4.1 优化问题的数学表述](#4.1 优化问题的数学表述)
        • [4.1.1 优化问题的标准形式](#4.1.1 优化问题的标准形式)
        • [4.1.2 导数在优化中的作用](#4.1.2 导数在优化中的作用)
      • [4.2 梯度下降法](#4.2 梯度下降法)
        • [4.2.1 梯度的定义](#4.2.1 梯度的定义)
        • [4.2.2 梯度下降的更新规则](#4.2.2 梯度下降的更新规则)
        • [4.2.3 梯度下降的类型](#4.2.3 梯度下降的类型)
      • [4.3 实例:梯度下降法在简单模型中的应用](#4.3 实例:梯度下降法在简单模型中的应用)
        • [4.3.1 项目目标](#4.3.1 项目目标)
        • [4.3.2 Python代码实现](#4.3.2 Python代码实现)
        • [4.3.3 运行结果](#4.3.3 运行结果)
        • [4.3.4 结果解读](#4.3.4 结果解读)
    • 五、总结与展望

微积分基础:理解变化与累积的数学

💬 欢迎讨论:如果你在阅读过程中有任何疑问或想要进一步探讨的内容,欢迎在评论区留言!我们一起学习、一起成长。

👍 点赞、收藏与分享:如果你觉得这篇文章对你有帮助,记得点赞、收藏并分享给更多想了解机器学习的朋友!

🚀 开启微积分之旅:微积分是理解变化和累积的数学工具,是机器学习中的重要基础。让我们一起深入探索微积分的核心概念,打好数学基础,为后续的机器学习学习做好准备。


前言

在机器学习的学习旅程中,微积分作为支撑理论之一,是理解模型优化与变化规律的关键。无论是在梯度下降、损失函数优化,还是在复杂模型的训练过程中,微积分都有着举足轻重的作用。在之前的博客中,我们已经介绍了线性代数概率论 的基础,这些都为进一步的学习奠定了基础。今天,我们将深入讲解微积分基础,特别是在机器学习中的应用。

如果你是机器学习的初学者,或者希望加强自己在微积分方面的基础知识,今天的内容将帮助你理解一些核心概念,并为后续更复杂的学习打下坚实的基础。


一、微积分概述与基础概念

1.1 微积分的定义与重要性

微积分是数学的一个分支,主要研究变化率(微分)和累积量(积分)。它在科学、工程、经济学以及机器学习等领域中有广泛的应用。

1.1.1 微积分的基本组成
  1. 微分学(Differential Calculus):研究函数的变化率,主要涉及导数的概念。
  2. 积分学(Integral Calculus):研究函数的累积量,主要涉及积分的概念。
1.1.2 微积分在机器学习中的应用
  • 梯度下降优化:利用导数计算损失函数的梯度,以更新模型参数。
  • 损失函数的最小化:通过微积分方法找到损失函数的最小值,从而优化模型性能。
  • 概率密度函数的积分:在概率模型中,积分用于计算概率分布的期望值和方差。

1.2 微积分的历史与发展

微积分的发展历史悠久,主要由艾萨克·牛顿(Isaac Newton )和戈特弗里德·莱布尼茨(Gottfried Wilhelm Leibniz)在17世纪独立发展起来。

  • 牛顿:主要用于物理学中的运动和力的研究。
  • 莱布尼茨 :发展了微积分的符号表示法,如积分符号 ∫ \int ∫和微分符号 d d d。

随着时间的推移,微积分在数学中的地位不断提升,并成为现代科学和工程的基础工具之一。


二、极限与连续性

2.1 极限的定义与计算

极限是微积分的基石,描述了函数在某一点附近的行为。

2.1.1 极限的直观理解

当变量趋近于某个值时,函数的输出趋近于一个特定的数值,这个数值就是函数在该点的极限。

2.1.2 极限的数学定义

函数 f ( x ) f(x) f(x) 在 x = a x = a x=a 处的极限是 L L L,记作:
lim ⁡ x → a f ( x ) = L \lim_{x \to a} f(x) = L x→alimf(x)=L

2.1.3 极限的计算方法
  1. 直接代入法

    如果 f ( x ) f(x) f(x) 在 x = a x = a x=a 处连续,则:
    lim ⁡ x → a f ( x ) = f ( a ) \lim_{x \to a} f(x) = f(a) x→alimf(x)=f(a)

  2. 因式分解法

    用于消除分母中的零,或约去公因式。

  3. 洛必达法则(L'Hospital's Rule)

    当极限形式为 0 0 \frac{0}{0} 00 或 ∞ ∞ \frac{\infty}{\infty} ∞∞ 时,可以对分子和分母分别求导,然后再求极限。

2.1.4 实例:计算极限

示例 1 :计算 lim ⁡ x → 2 x 2 − 4 x − 2 \lim_{x \to 2} \frac{x^2 - 4}{x - 2} limx→2x−2x2−4

解答

直接代入 x = 2 x = 2 x=2 得到 0 0 \frac{0}{0} 00 的不定形式,需进行因式分解:
x 2 − 4 x − 2 = ( x − 2 ) ( x + 2 ) x − 2 = x + 2 \frac{x^2 - 4}{x - 2} = \frac{(x - 2)(x + 2)}{x - 2} = x + 2 x−2x2−4=x−2(x−2)(x+2)=x+2

因此:
lim ⁡ x → 2 ( x + 2 ) = 4 \lim_{x \to 2} (x + 2) = 4 x→2lim(x+2)=4

示例 2 :计算 lim ⁡ x → 0 sin ⁡ ( x ) x \lim_{x \to 0} \frac{\sin(x)}{x} limx→0xsin(x)

解答

使用洛必达法则:
lim ⁡ x → 0 sin ⁡ ( x ) x = lim ⁡ x → 0 cos ⁡ ( x ) 1 = 1 \lim_{x \to 0} \frac{\sin(x)}{x} = \lim_{x \to 0} \frac{\cos(x)}{1} = 1 x→0limxsin(x)=x→0lim1cos(x)=1

2.2 连续性的定义与性质

连续性描述了函数在某一点没有"跳跃"或"断裂"的性质。

2.2.1 连续函数的定义

函数 f ( x ) f(x) f(x) 在 x = a x = a x=a 处连续,当且仅当满足以下三个条件:

  1. f ( a ) f(a) f(a) 存在。
  2. lim ⁡ x → a f ( x ) \lim_{x \to a} f(x) limx→af(x) 存在。
  3. lim ⁡ x → a f ( x ) = f ( a ) \lim_{x \to a} f(x) = f(a) limx→af(x)=f(a)
2.2.2 间断点的类型
  1. 可去间断点(Removable Discontinuity)

    极限存在但不等于函数值,或函数值未定义。

  2. 跳跃间断点(Jump Discontinuity)

    左右极限存在但不相等。

  3. 无穷间断点(Infinite Discontinuity)

    极限为正无穷或负无穷。

2.2.3 连续性的性质
  • 四则运算 :若 f ( x ) f(x) f(x) 和 g ( x ) g(x) g(x) 在 x = a x = a x=a 处连续,则 f ( x ) + g ( x ) f(x) + g(x) f(x)+g(x)、 f ( x ) − g ( x ) f(x) - g(x) f(x)−g(x)、 f ( x ) × g ( x ) f(x) \times g(x) f(x)×g(x) 和 f ( x ) g ( x ) \frac{f(x)}{g(x)} g(x)f(x)(当 g ( a ) ≠ 0 g(a) \neq 0 g(a)=0)在 x = a x = a x=a 处连续。
  • 复合函数 :若 f ( x ) f(x) f(x) 在 x = a x = a x=a 处连续,且 g ( x ) g(x) g(x) 在 y = f ( a ) y = f(a) y=f(a) 处连续,则 g ( f ( x ) ) g(f(x)) g(f(x)) 在 x = a x = a x=a 处连续。
2.2.4 实例:连续性判断

示例 1 :判断函数 f ( x ) = x 2 − 1 x − 1 f(x) = \frac{x^2 - 1}{x - 1} f(x)=x−1x2−1 在 x = 1 x = 1 x=1 处是否连续。

解答

简化函数:
f ( x ) = ( x − 1 ) ( x + 1 ) x − 1 = x + 1 (当 x ≠ 1 时) f(x) = \frac{(x - 1)(x + 1)}{x - 1} = x + 1 \quad \text{(当 } x \neq 1 \text{ 时)} f(x)=x−1(x−1)(x+1)=x+1(当 x=1 时)

在 x = 1 x = 1 x=1 处:
lim ⁡ x → 1 f ( x ) = 2 \lim_{x \to 1} f(x) = 2 x→1limf(x)=2

若定义 f ( 1 ) = 2 f(1) = 2 f(1)=2,则 f ( x ) f(x) f(x) 在 x = 1 x = 1 x=1 处连续;否则,是可去间断点。


2.3 实战项目:使用Python绘制函数的极限与连续性示意图

通过实战项目,我们将使用Python绘制函数在某一点的极限与连续性的示意图,帮助直观理解这些概念。

2.3.1 项目目标
  • 绘制函数 f ( x ) = x 2 − 4 x − 2 f(x) = \frac{x^2 - 4}{x - 2} f(x)=x−2x2−4 在 x = 2 x = 2 x=2 处的极限示意图。
  • 标注函数在 x = 2 x = 2 x=2 处的连续性情况。
2.3.2 Python代码实现
python 复制代码
import numpy as np
import matplotlib.pyplot as plt

# 定义函数 f(x) = (x^2 - 4)/(x - 2), x != 2
def f(x):
    return (x**2 - 4)/(x - 2)

# 定义简化后的函数 g(x) = x + 2, x != 2
def g(x):
    return x + 2

# 生成 x 值,避开 x = 2
x = np.linspace(1, 3, 400)
x = x[x != 2]
y = f(x)
y_simplified = g(x)

# 绘制函数
plt.figure(figsize=(8, 6))
plt.plot(x, y, label=r'$f(x) = \frac{x^2 - 4}{x - 2}$', color='blue')
plt.plot(x, y_simplified, '--', label=r'$g(x) = x + 2$', color='red')

# 标注 x = 2
plt.axvline(x=2, color='gray', linestyle='--')
plt.scatter(2, 4, color='green', zorder=5, label=r'$f(2) = 4$')

# 设置图例和标签
plt.legend(fontsize=12)
plt.xlabel(r'$x$', fontsize=12)
plt.ylabel(r'$f(x)$', fontsize=12)
plt.title(r'函数 $f(x)$ 和其简化形式 $g(x)$ 的示意图', fontsize=14)
plt.grid(True)

# 显示图表
plt.show()
2.3.3 运行结果
2.3.4 结果解读
  1. 函数 f ( x ) f(x) f(x) :在 x = 2 x = 2 x=2 处存在一个可去间断点,函数值为4。
  2. 简化后的函数 g ( x ) = x + 2 g(x) = x + 2 g(x)=x+2 :是 f ( x ) f(x) f(x) 的连续扩展,消除了分母为零的问题。
  3. 图中标注 :绿色点表示 f ( 2 ) = 4 f(2) = 4 f(2)=4,显示了在 x = 2 x = 2 x=2 处函数的定义和值。

通过这个示意图,我们可以直观地看到函数在某一点的极限与连续性情况。


三、导数的概念与计算

3.1 导数的定义

导数是微积分的核心概念之一,描述了函数在某一点的瞬时变化率。

3.1.1 导数的几何意义

导数表示函数在某一点处的切线斜率,即函数在该点的瞬时变化率。

3.1.2 导数的物理意义

在物理学中,导数用于描述速度、加速度等瞬时变化量。例如,位置函数的导数是速度函数,速度函数的导数是加速度函数。

3.1.3 导数的数学定义

函数 f ( x ) f(x) f(x) 在点 x = a x = a x=a 处的导数定义为:
f ′ ( a ) = lim ⁡ h → 0 f ( a + h ) − f ( a ) h f'(a) = \lim_{h \to 0} \frac{f(a + h) - f(a)}{h} f′(a)=h→0limhf(a+h)−f(a)

如果这个极限存在,则称 f ( x ) f(x) f(x) 在 x = a x = a x=a 处可导。

3.2 导数的计算规则

3.2.1 基本导数法则
  1. 常数法则
    d d x c = 0 \frac{d}{dx}c = 0 dxdc=0

    其中, c c c 是常数。

  2. 幂函数法则
    d d x x n = n x n − 1 \frac{d}{dx}x^n = n x^{n-1} dxdxn=nxn−1

    其中, n n n 是常数。

  3. 指数函数法则
    d d x e x = e x \frac{d}{dx}e^x = e^x dxdex=ex
    d d x a x = a x ln ⁡ ( a ) \frac{d}{dx}a^x = a^x \ln(a) dxdax=axln(a)

    其中, a a a 是正数常数。

  4. 对数函数法则
    d d x ln ⁡ ( x ) = 1 x \frac{d}{dx}\ln(x) = \frac{1}{x} dxdln(x)=x1
    d d x log ⁡ a ( x ) = 1 x ln ⁡ ( a ) \frac{d}{dx}\log_a(x) = \frac{1}{x \ln(a)} dxdloga(x)=xln(a)1

  5. 三角函数法则
    d d x sin ⁡ ( x ) = cos ⁡ ( x ) \frac{d}{dx}\sin(x) = \cos(x) dxdsin(x)=cos(x)
    d d x cos ⁡ ( x ) = − sin ⁡ ( x ) \frac{d}{dx}\cos(x) = -\sin(x) dxdcos(x)=−sin(x)
    d d x tan ⁡ ( x ) = sec ⁡ 2 ( x ) \frac{d}{dx}\tan(x) = \sec^2(x) dxdtan(x)=sec2(x)

3.2.2 乘积法则与商法则
  1. 乘积法则(Product Rule)
    d d x [ u ( x ) ⋅ v ( x ) ] = u ′ ( x ) ⋅ v ( x ) + u ( x ) ⋅ v ′ ( x ) \frac{d}{dx}[u(x) \cdot v(x)] = u'(x) \cdot v(x) + u(x) \cdot v'(x) dxd[u(x)⋅v(x)]=u′(x)⋅v(x)+u(x)⋅v′(x)

  2. 商法则(Quotient Rule)
    d d x [ u ( x ) v ( x ) ] = u ′ ( x ) ⋅ v ( x ) − u ( x ) ⋅ v ′ ( x ) v ( x ) 2 \frac{d}{dx}\left[\frac{u(x)}{v(x)}\right] = \frac{u'(x) \cdot v(x) - u(x) \cdot v'(x)}{v(x)^2} dxd[v(x)u(x)]=v(x)2u′(x)⋅v(x)−u(x)⋅v′(x)

3.2.3 链式法则(Chain Rule)

当函数是复合函数时,使用链式法则进行求导:
d d x f ( g ( x ) ) = f ′ ( g ( x ) ) ⋅ g ′ ( x ) \frac{d}{dx}f(g(x)) = f'(g(x)) \cdot g'(x) dxdf(g(x))=f′(g(x))⋅g′(x)

3.3 实例:简单导数计算

3.3.1 示例 1:多项式函数的导数

问题 :计算函数 f ( x ) = 3 x 4 − 5 x 2 + 6 x − 2 f(x) = 3x^4 - 5x^2 + 6x - 2 f(x)=3x4−5x2+6x−2 的导数。

解答

应用幂函数法则:
f ′ ( x ) = 12 x 3 − 10 x + 6 f'(x) = 12x^3 - 10x + 6 f′(x)=12x3−10x+6

3.3.2 示例 2:指数函数的导数

问题 :计算函数 g ( x ) = e 2 x g(x) = e^{2x} g(x)=e2x 的导数。

解答

应用指数函数法则和链式法则:
g ′ ( x ) = 2 e 2 x g'(x) = 2e^{2x} g′(x)=2e2x

3.3.3 示例 3:商函数的导数

问题 :计算函数 h ( x ) = sin ⁡ ( x ) x h(x) = \frac{\sin(x)}{x} h(x)=xsin(x) 的导数。

解答

应用商法则:
h ′ ( x ) = cos ⁡ ( x ) ⋅ x − sin ⁡ ( x ) ⋅ 1 x 2 = x cos ⁡ ( x ) − sin ⁡ ( x ) x 2 h'(x) = \frac{\cos(x) \cdot x - \sin(x) \cdot 1}{x^2} = \frac{x \cos(x) - \sin(x)}{x^2} h′(x)=x2cos(x)⋅x−sin(x)⋅1=x2xcos(x)−sin(x)

3.4 实战项目:使用SymPy库进行符号导数计算并绘制导数曲线

通过实战项目,我们将使用Python的SymPy库进行符号导数计算,并绘制函数及其导数的曲线,帮助直观理解导数的概念。

3.4.1 项目目标
  • 计算函数 f ( x ) = x 3 − 4 x + 1 f(x) = x^3 - 4x + 1 f(x)=x3−4x+1 的导数。
  • 绘制函数 f ( x ) f(x) f(x) 和其导数 f ′ ( x ) f'(x) f′(x) 的曲线。
  • 标注导数在不同点的值,展示函数的增长与减少趋势。
3.4.2 Python代码实现
python 复制代码
import numpy as np
import matplotlib.pyplot as plt
import sympy as sp

# 定义符号变量
x = sp.symbols('x')

# 定义函数 f(x) = x^3 - 4x + 1
f = x**3 - 4*x + 1

# 计算导数 f'(x)
f_prime = sp.diff(f, x)

# 将符号表达式转换为数值函数
f_func = sp.lambdify(x, f, 'numpy')
f_prime_func = sp.lambdify(x, f_prime, 'numpy')

# 生成 x 值
x_vals = np.linspace(-3, 3, 400)
y_vals = f_func(x_vals)
y_prime_vals = f_prime_func(x_vals)

# 绘制函数和导数曲线
plt.figure(figsize=(10,6))
plt.plot(x_vals, y_vals, label='f(x) = x³ - 4x + 1', color='blue')
plt.plot(x_vals, y_prime_vals, label="f'(x) = 3x² - 4", color='red', linestyle='--')

# 标注关键点
critical_points = sp.solve(f_prime, x)
for point in critical_points:
    y_cp = f_func(point)
    y_prime_cp = f_prime_func(point)
    plt.scatter(point, y_cp, color='green')
    plt.annotate(f'({point:.2f}, {y_cp:.2f})', (point, y_cp),
                 textcoords="offset points", xytext=(0,10), ha='center')

# 设置图例和标签
plt.legend()
plt.xlabel('x')
plt.ylabel('y')
plt.title('函数 f(x) 及其导数 f\'(x) 的曲线')
plt.grid(True)
plt.show()
3.4.3 运行结果
3.4.4 结果解读
  1. 函数 f ( x ) = x 3 − 4 x + 1 f(x) = x^3 - 4x + 1 f(x)=x3−4x+1

    • 蓝色实线表示原函数的曲线。
  2. 导数 f ′ ( x ) = 3 x 2 − 4 f'(x) = 3x^2 - 4 f′(x)=3x2−4

    • 红色虚线表示函数的导数曲线,展示了函数在各点的变化率。
  3. 关键点标注

    • 绿色点表示函数的临界点,即导数为零的点。
    • 这些点对应函数的极大值和极小值,展示了函数的增长和减少趋势。

通过这个示意图,我们可以直观地看到函数在不同点的变化率,以及导数在优化中的重要作用。


四、导数的应用:优化与变化

4.1 优化问题的数学表述

在机器学习中,优化问题是核心任务之一。优化的目标是找到使得某个目标函数(如损失函数)最小化或最大化的参数值。

4.1.1 优化问题的标准形式

min ⁡ θ J ( θ ) \min_{\theta} J(\theta) θminJ(θ)

其中:

  • θ \theta θ 表示模型的参数。
  • J ( θ ) J(\theta) J(θ) 表示目标函数,通常是损失函数。
4.1.2 导数在优化中的作用

导数提供了目标函数在某一点的变化率信息,帮助我们理解目标函数的趋势,从而指导参数更新的方向和步长。

4.2 梯度下降法

梯度下降法是最常用的优化算法之一,旨在通过迭代更新参数,逐步逼近目标函数的最小值。

4.2.1 梯度的定义

梯度是目标函数对参数的偏导数组成的向量,表示目标函数在参数空间中的上升最快方向。

∇ J ( θ ) = [ ∂ J ∂ θ 1 , ∂ J ∂ θ 2 , ... , ∂ J ∂ θ n ] \nabla J(\theta) = \left[ \frac{\partial J}{\partial \theta_1}, \frac{\partial J}{\partial \theta_2}, \dots, \frac{\partial J}{\partial \theta_n} \right] ∇J(θ)=[∂θ1∂J,∂θ2∂J,...,∂θn∂J]

4.2.2 梯度下降的更新规则

θ : = θ − α ∇ J ( θ ) \theta := \theta - \alpha \nabla J(\theta) θ:=θ−α∇J(θ)

其中:

  • α \alpha α 是学习率,控制每次更新的步长。
  • ∇ J ( θ ) \nabla J(\theta) ∇J(θ) 是目标函数在当前参数 θ \theta θ 处的梯度。
4.2.3 梯度下降的类型
  1. 批量梯度下降(Batch Gradient Descent)

    • 使用整个训练集计算梯度,适用于小型数据集。
  2. 随机梯度下降(Stochastic Gradient Descent, SGD)

    • 每次使用一个样本计算梯度,适用于大型数据集。
  3. 小批量梯度下降(Mini-Batch Gradient Descent)

    • 每次使用一小部分样本计算梯度,结合了批量和随机梯度下降的优点。

4.3 实例:梯度下降法在简单模型中的应用

通过实战项目,我们将实现一个简单的线性回归模型,并使用梯度下降法优化模型参数。

4.3.1 项目目标
  • 建立一个线性回归模型 y = θ 0 + θ 1 x y = \theta_0 + \theta_1 x y=θ0+θ1x。
  • 使用梯度下降法最小化均方误差(Mean Squared Error, MSE)。
  • 可视化损失函数的下降过程。
4.3.2 Python代码实现
python 复制代码
import numpy as np
import matplotlib.pyplot as plt

# 生成模拟数据
np.random.seed(0)
X = 2 * np.random.rand(100, 1)
y = 4 + 3 * X + np.random.randn(100, 1)  # y = 4 + 3x + Gaussian noise

# 添加 x0 = 1 到每个实例(截距项)
X_b = np.c_[np.ones((100, 1)), X]  # X_b.shape = (100, 2)

# 初始化参数 theta = [theta0, theta1]
theta = np.random.randn(2, 1)

# 梯度下降参数
learning_rate = 0.1
n_iterations = 1000
m = 100  # 样本数量

# 存储损失值
loss_history = []

for iteration in range(n_iterations):
    # 计算梯度
    gradients = 2 / m * X_b.T.dot(X_b.dot(theta) - y)
    # 更新参数
    theta = theta - learning_rate * gradients
    # 计算当前的损失(均方误差)
    loss = (1 / m) * np.sum((X_b.dot(theta) - y) ** 2)
    loss_history.append(loss)

# 输出优化后的参数
print(f"优化后的 theta0(截距): {theta[0][0]:.2f}")
print(f"优化后的 theta1(斜率): {theta[1][0]:.2f}")

# 绘制损失函数下降曲线
plt.figure(figsize=(8, 6))
plt.plot(range(n_iterations), loss_history, color='purple')
plt.xlabel('迭代次数', fontsize=12)
plt.ylabel('均方误差 (MSE)', fontsize=12)
plt.title('梯度下降优化过程中的损失变化', fontsize=14)
plt.grid(True)
plt.show()

# 绘制数据与回归线
plt.figure(figsize=(8, 6))
plt.scatter(X, y, color='blue', label='数据点')
plt.plot(X, X_b.dot(theta), color='red', label='拟合的回归线')
plt.xlabel('x', fontsize=12)
plt.ylabel('y', fontsize=12)
plt.title('线性回归模型与数据点', fontsize=14)
plt.legend(fontsize=12)
plt.grid(True)
plt.show()
4.3.3 运行结果
plaintext 复制代码
优化后的theta0(截距): 4.22
优化后的theta1(斜率): 2.97
4.3.4 结果解读
  1. 优化后的参数

    • θ 0 ≈ 4.22 \theta_0 \approx 4.22 θ0≈4.22
    • θ 1 ≈ 2.97 \theta_1 \approx 2.97 θ1≈2.97

    这接近于数据生成时的真实参数 θ 0 = 4 \theta_0 = 4 θ0=4, θ 1 = 3 \theta_1 = 3 θ1=3,表明梯度下降法成功地最小化了损失函数。

  2. 损失函数下降曲线

    • 显示了均方误差随着迭代次数的增加而逐步下降,最终趋于稳定,表明优化过程收敛。
  1. 线性回归模型与数据点
    • 红色回归线很好地拟合了蓝色数据点,验证了模型的有效性。

通过这个实战项目,我们深入了解了梯度下降法在优化模型参数中的应用,以及如何通过可视化手段监控优化过程。


五、总结与展望

本篇,我们从微积分的视角重新审视了变化与累积的关系。通过对极限、连续性、导数的深入讲解,以及梯度下降法在优化中的应用,我们不仅掌握了微积分的基本概念和计算方法,还理解了微积分在机器学习中的关键作用。微积分,是我们理解模型优化与变化规律的数学基石,它为我们在后续学习更复杂的机器学习算法提供了坚实的理论支持。

小结

  • 极限与连续性帮助我们理解函数在某一点的行为与性质。
  • 导数描述了函数的瞬时变化率,是优化算法中的关键工具。
  • 梯度下降法利用导数信息,指导模型参数的优化过程。

展望

在接下来的博客中,我们将继续深入学习微积分的其他重要概念,如积分,并探讨其在机器学习中的具体应用。通过系统化的学习,你将逐步构建起扎实的数学知识体系,为后续的机器学习算法与模型的理解与实现打下坚实的基础。希望通过本系列的学习,你能逐步掌握微积分的核心知识,提升在机器学习领域的分析与建模能力。


以上就是关于【机器学习】分而知变,积而见道:微积分中的世界之思的内容啦,各位大佬有什么问题欢迎在评论区指正,或者私信我也是可以的啦,您的支持是我创作的最大动力!❤️

相关推荐
Bruce_Liuxiaowei3 分钟前
农历节日倒计时:基于Python的公历与农历日期转换及节日查询小程序(升级版)
python·节日·日期函数·农历日期
Spcarrydoinb6 分钟前
python学习笔记——函数以及函数传参
笔记·python·学习
HappyAcmen8 分钟前
机器算法之逻辑回归(Logistic Regression)详解
算法·机器学习·逻辑回归
不会玩技术的技术girl2 小时前
AI 自动化编程的现状与局限
运维·人工智能·自动化
玄明Hanko2 小时前
AI文献阅读ChatDOC 、ChatPDF 哪个好?
人工智能·chatdoc·chatpdf
sanx183 小时前
体育实时数据是怎么获取的
python
Kai HVZ4 小时前
《机器学习》——KNN算法
人工智能·算法·机器学习
Nil_cxc4 小时前
机器学习周报-TCN文献阅读
人工智能·机器学习
人总该做点什么4 小时前
【机器学习】概述
人工智能·机器学习
feifeikon4 小时前
机器学习DAY7: 特征工程和特征选择(数据预处理)(完)
人工智能·机器学习