深度学习——线性神经网络(二、线性回归的从零开始实现)

目录

    • [2.1 生成数据集](#2.1 生成数据集)
    • [2.2 读取数据集](#2.2 读取数据集)
    • [2.3 初始化模型参数](#2.3 初始化模型参数)
    • [2.4 定义模型](#2.4 定义模型)
    • [2.5 定义损失函数](#2.5 定义损失函数)
    • [2.6 定义优化算法](#2.6 定义优化算法)
    • [2.7 训练](#2.7 训练)

2.1 生成数据集

为简单展示,将根据带有噪声的线性模型构造一个数据集。生成一个包含1000个样本的数据集。每个样本包含从标准正态分布中的抽样的两个特征,因此我们合成的数据集是一个矩阵 X ∈ R 1000 × 2 X \in \mathbb{R}^{1000 \times 2} X∈R1000×2。

使用线性模型参数 w = [ 2 , − 3.4 ] , b = 4.2 \bm w=[2,-3.4],b=4.2 w=[2,−3.4],b=4.2和噪声项 ϵ \epsilon ϵ来生成数据集及其标签。
y = X w + b + ϵ \bm y=\bm {Xw}+b+\epsilon y=Xw+b+ϵ

ϵ \epsilon ϵ可以视为模型预测和标签的潜在观测误差,假设 ϵ \epsilon ϵ服从均值为0的正态分布,同时将标准差 σ \sigma σ设为0.01

python 复制代码
def synthetic_data(w, b, num_examples):
    X = torch.normal(0, 1, (num_examples, len(w)))
    y = torch.matmul(X, w) + b
    y += torch.normal(0, 0.01, y.shape)
    return X, y.reshape((-1, 1))


true_w = torch.tensor([2, -3.4])
true_b = 4.2
features, labels = synthetic_data(true_w, true_b, 1000)

features中的每一行都包含一个二维数据样本,labels中的每一行都包含一个标签值(标量)

python 复制代码
print('features:', features[0], '\nlabel:', labels[0])

通过生成第二个特征features[:, 1]和labels的散点图,可以直观地观察到两者间的线性关系。

python 复制代码
d2l.set_figsize()
d2l.plt.scatter(features[:,1].detach().numpy(),labels.detach().numpy(),1)
d2l.plt.show()

features[:, 1].detach().numpy() 取出了特征数据的第二列(索引为1),并且转换为 NumPy 数组。

labels.detach().numpy() 将标签数据也转换为 NumPy 数组。

d2l.set_figsize( ) 设置了图形的大小。

d2l.plt.scatter(..., 1) 使用了大小为 1 的点来绘制散点图。

2.2 读取数据集

训练模型时要对数据集进行遍历,每次抽取小批量样本,并使用它们来更新我们的模型。因此有必要定义一个函数,该函数能打乱数据集中的样本并以小批量方式获取数据。

定义一个data_iter函数,该函数接收批量大小特征矩阵和标签向量作为输入,生成大小为batch_size的小批量。每个小批量包含一组特征和标签。

python 复制代码
def data_iter(batch_size, features, labels):
    num_examples = len(features)
    indices = list(range(num_examples))
    # 随机读取
    random.shuffle(indices)
    for i in range(0, num_examples, batch_size):
        batch_indices = torch.tensor(
            indices[i:min(i + batch_size,num_examples)])
        yield features[batch_indices], labels[batch_indices]

通常,我们利用GPU并行计算的优势,处理大小合理的"小批量"。每个样本都可以被并行地进行模型计算,且每个样本损失函数的梯度也可以被并行计算。GPU可以实现在处理几百个样本时所花费的时间不比处理单个样本时多太多。

直观感受一下小批量计算:读取第一个小批量数据样本并打印。每个批量的特征维度是显示批量大小和输入特征数。同样,批量的标签形状与batch_size相等。

python 复制代码
batch_size = 10

for X, y in data_iter(batch_size, features, labels):
    print(X, '\n', y)
    break

当我们执行迭代时,我们会连续地获得不同的小批量,直至遍历完整个数据集。

上面的迭代过程对于展示代码比较适合,但是它的执行效率很低,可能会在实际应用问题中产生比较大的麻烦。

如果要将所有数据加载到内存中,并执行大量的随机内存访问。在深度学习框架中实现的内置迭代器的效率要高得多,它可以处理存储在文件中的数据和数据流提供的数据。

2.3 初始化模型参数

我们通过从均值为0,标准差为0.01的正态分布中抽样随机数来初始化权重,并将偏置初始化为0

python 复制代码
w = torch.normal(0, 0.01, size=(2, 1), requires_grad=True)
b = torch.zeros(1, requires_grad=True)

在初始化这些参数后,我们的任务是更新这些参数,直到这些参数足以拟合我们的数据。

每次更新都需要计算损失函数关于模型参数的梯度,根据梯度,可以向减少损失的方向更新每个参数。

通过torch中引入的自动微分来计算梯度。

2.4 定义模型

要计算线性模型的输出,只需计算输入特征 X \bm X X和模型权重 w \bm w w的矩阵---向量乘法后加上偏置 b b b

X w \bm {Xw} Xw是一个向量,而 b b b是一个标量。根据前面章节提到的广播机制:当我们用一个向量加上一个标量时,标量会被加到向量的每一个分量上。

python 复制代码
def linreg(X, w, b):
    """定义线性回归模型"""
    return torch.matmul(X, w) + b

2.5 定义损失函数

python 复制代码
def squared_loss(y_hat, y):
    """均方损失函数"""
    return (y_hat - y.reshape(y_hat.shape)) ** 2 / 2

定义平方损失函数,需要将真实值y的形状转换为和预测值y-hat的形状相同。

2.6 定义优化算法

在每一步中,使用从数据集中随机抽取的一个小批量,然后根据参数计算损失的梯度,接下来,朝着减少损失的方向更新我们的参数。

下面的函数实现小批量随机梯度下降更新,该函数接受模型的参数集合、学习率和批量大小作为输入,每一步更新的大小由学习率lr决定。

因为我们计算的损失是一个批量样本的总和,所以我们用批量大小(batch_size)来规范化步长,这样步长大小就不会取决于我们对批量大小的选择。

python 复制代码
def sgd(params, lr, batch_size):
    """小批量随机梯度下降"""
    with torch.no_grad():
        for param in params:
            param -= lr * param.grad / batch_size
            param.grad.zero_()

2.7 训练

在每次迭代中,我们读取小批量训练样本,并通过我们的模型来获得一组预测,计算完损失后,开始反向传播,存储每个参数的梯度。最后,调用优化算法SGD来更新模型参数。

将执行以下迭代;

  1. 初始化参数

  2. 重复以下训练,直到完成:

    • 计算梯度 g ← ∂ ( w , b ) 1 ∣ B ∣ ∑ i ∈ B l ( x ( i ) , y ( i ) , w , b ) \bm g \leftarrow \partial_{(\bm w,b)} \frac 1 {\vert B \vert}\sum_{i \in B} l(\bm x^{(i)},y^{(i)},\bm w,b) g←∂(w,b)∣B∣1∑i∈Bl(x(i),y(i),w,b)
      -更新参数 ( w , b ) ← ( w , b ) − η g (\bm w,b) \leftarrow (\bm w,b)- \eta\bm g (w,b)←(w,b)−ηg

在每轮(epoch)中,我们使用data_iter函数遍历整个数据集,并将训练数据集中的所有样本都使用一次(假设样本数能够被批量大小整除)。

这里的轮数num_epochs和学习率lr都是超参数,分别设为3和0.03.

设置超参数比较麻烦,需要通过反复实验进行调整。

python 复制代码
lr = 0.03
num_epochs = 3
net = linreg
loss = squared_loss

for epoch in range(num_epochs):
    for X, y in data_iter(batch_size, features, labels):
        l = loss(net(X, w, b), y) # X和y的小批量损失
        # 因为l的形状是(batch_size, 1),而不是一个标量
        # l中的所有元素被加到一起,并以此计算关于[w, b]的梯度
        l.sum().backward()
        sgd([w, b], lr, batch_size) # 使用参数的梯度更新参数
    with torch.no_grad():
        train_l = loss(net(features, w, b), labels)
        print(f'epoch{epoch + 1}, loss{float(train_l.mean()):f}')

因为使用的是自己合成的数据集,所以知道真实的参数是什么。因此,我们可以通过比较真实参数和通过训练学习的参数来评估训练好坏程度。事实上,真实参数和通过训练学习的参数确实非常相近。

python 复制代码
print(f'w的估计误差:{true_w - w.reshape(true_w.shape)}')
print(f'b的估计误差:{true_b - b}')

在机器学习中,我们通常不太关心恢复真实的参数,而更关心如何高度准确地预测参数。

相关推荐
是Dream呀2 小时前
WHAT KAN I SAY?Kolmogorov-Arnold Network (KAN)网络结构介绍及实战(文末送书)
深度学习·神经网络·kan
机器学习之心2 小时前
回归预测 | MATLAB实现CNN-LSTM卷积长短期记忆神经网络多输入单输出回归预测
神经网络·matlab·回归·cnn-lstm
Crossoads3 小时前
【汇编语言】外中断(一)—— 外中断的魔法:PC机键盘如何触发计算机响应
android·开发语言·数据库·深度学习·机器学习·计算机外设·汇编语言
红色的山茶花4 小时前
YOLOv9-0.1部分代码阅读笔记-hubconf.py
笔记·深度学习·yolo
Hoper.J4 小时前
微调 BERT:实现抽取式问答
人工智能·深度学习·自然语言处理·llm·bert
G.Chenhui4 小时前
【conda】使用 conda 安装的 cuda-toolkit 时,安装的版本与指定版本不一致
深度学习·conda
不听话的好孩子4 小时前
基于深度学习(HyperLPR3框架)的中文车牌识别系统-python程序开发测试
开发语言·python·深度学习
EnochChen_5 小时前
六大基础深度神经网络之CNN
人工智能·神经网络
Hz、辉6 小时前
损失函数-二分类和多分类
人工智能·深度学习·神经网络·分类·多分类
小言从不摸鱼7 小时前
【AI大模型】探索GPT模型的奥秘:引领自然语言处理的新纪元
人工智能·gpt·深度学习·语言模型·自然语言处理·transformer