深度学习——线性神经网络(二、线性回归的从零开始实现)

目录

    • [2.1 生成数据集](#2.1 生成数据集)
    • [2.2 读取数据集](#2.2 读取数据集)
    • [2.3 初始化模型参数](#2.3 初始化模型参数)
    • [2.4 定义模型](#2.4 定义模型)
    • [2.5 定义损失函数](#2.5 定义损失函数)
    • [2.6 定义优化算法](#2.6 定义优化算法)
    • [2.7 训练](#2.7 训练)

2.1 生成数据集

为简单展示,将根据带有噪声的线性模型构造一个数据集。生成一个包含1000个样本的数据集。每个样本包含从标准正态分布中的抽样的两个特征,因此我们合成的数据集是一个矩阵 X ∈ R 1000 × 2 X \in \mathbb{R}^{1000 \times 2} X∈R1000×2。

使用线性模型参数 w = [ 2 , − 3.4 ] , b = 4.2 \bm w=[2,-3.4],b=4.2 w=[2,−3.4],b=4.2和噪声项 ϵ \epsilon ϵ来生成数据集及其标签。
y = X w + b + ϵ \bm y=\bm {Xw}+b+\epsilon y=Xw+b+ϵ

ϵ \epsilon ϵ可以视为模型预测和标签的潜在观测误差,假设 ϵ \epsilon ϵ服从均值为0的正态分布,同时将标准差 σ \sigma σ设为0.01

python 复制代码
def synthetic_data(w, b, num_examples):
    X = torch.normal(0, 1, (num_examples, len(w)))
    y = torch.matmul(X, w) + b
    y += torch.normal(0, 0.01, y.shape)
    return X, y.reshape((-1, 1))


true_w = torch.tensor([2, -3.4])
true_b = 4.2
features, labels = synthetic_data(true_w, true_b, 1000)

features中的每一行都包含一个二维数据样本,labels中的每一行都包含一个标签值(标量)

python 复制代码
print('features:', features[0], '\nlabel:', labels[0])

通过生成第二个特征features[:, 1]和labels的散点图,可以直观地观察到两者间的线性关系。

python 复制代码
d2l.set_figsize()
d2l.plt.scatter(features[:,1].detach().numpy(),labels.detach().numpy(),1)
d2l.plt.show()

features[:, 1].detach().numpy() 取出了特征数据的第二列(索引为1),并且转换为 NumPy 数组。

labels.detach().numpy() 将标签数据也转换为 NumPy 数组。

d2l.set_figsize( ) 设置了图形的大小。

d2l.plt.scatter(..., 1) 使用了大小为 1 的点来绘制散点图。

2.2 读取数据集

训练模型时要对数据集进行遍历,每次抽取小批量样本,并使用它们来更新我们的模型。因此有必要定义一个函数,该函数能打乱数据集中的样本并以小批量方式获取数据。

定义一个data_iter函数,该函数接收批量大小特征矩阵和标签向量作为输入,生成大小为batch_size的小批量。每个小批量包含一组特征和标签。

python 复制代码
def data_iter(batch_size, features, labels):
    num_examples = len(features)
    indices = list(range(num_examples))
    # 随机读取
    random.shuffle(indices)
    for i in range(0, num_examples, batch_size):
        batch_indices = torch.tensor(
            indices[i:min(i + batch_size,num_examples)])
        yield features[batch_indices], labels[batch_indices]

通常,我们利用GPU并行计算的优势,处理大小合理的"小批量"。每个样本都可以被并行地进行模型计算,且每个样本损失函数的梯度也可以被并行计算。GPU可以实现在处理几百个样本时所花费的时间不比处理单个样本时多太多。

直观感受一下小批量计算:读取第一个小批量数据样本并打印。每个批量的特征维度是显示批量大小和输入特征数。同样,批量的标签形状与batch_size相等。

python 复制代码
batch_size = 10

for X, y in data_iter(batch_size, features, labels):
    print(X, '\n', y)
    break

当我们执行迭代时,我们会连续地获得不同的小批量,直至遍历完整个数据集。

上面的迭代过程对于展示代码比较适合,但是它的执行效率很低,可能会在实际应用问题中产生比较大的麻烦。

如果要将所有数据加载到内存中,并执行大量的随机内存访问。在深度学习框架中实现的内置迭代器的效率要高得多,它可以处理存储在文件中的数据和数据流提供的数据。

2.3 初始化模型参数

我们通过从均值为0,标准差为0.01的正态分布中抽样随机数来初始化权重,并将偏置初始化为0

python 复制代码
w = torch.normal(0, 0.01, size=(2, 1), requires_grad=True)
b = torch.zeros(1, requires_grad=True)

在初始化这些参数后,我们的任务是更新这些参数,直到这些参数足以拟合我们的数据。

每次更新都需要计算损失函数关于模型参数的梯度,根据梯度,可以向减少损失的方向更新每个参数。

通过torch中引入的自动微分来计算梯度。

2.4 定义模型

要计算线性模型的输出,只需计算输入特征 X \bm X X和模型权重 w \bm w w的矩阵---向量乘法后加上偏置 b b b

X w \bm {Xw} Xw是一个向量,而 b b b是一个标量。根据前面章节提到的广播机制:当我们用一个向量加上一个标量时,标量会被加到向量的每一个分量上。

python 复制代码
def linreg(X, w, b):
    """定义线性回归模型"""
    return torch.matmul(X, w) + b

2.5 定义损失函数

python 复制代码
def squared_loss(y_hat, y):
    """均方损失函数"""
    return (y_hat - y.reshape(y_hat.shape)) ** 2 / 2

定义平方损失函数,需要将真实值y的形状转换为和预测值y-hat的形状相同。

2.6 定义优化算法

在每一步中,使用从数据集中随机抽取的一个小批量,然后根据参数计算损失的梯度,接下来,朝着减少损失的方向更新我们的参数。

下面的函数实现小批量随机梯度下降更新,该函数接受模型的参数集合、学习率和批量大小作为输入,每一步更新的大小由学习率lr决定。

因为我们计算的损失是一个批量样本的总和,所以我们用批量大小(batch_size)来规范化步长,这样步长大小就不会取决于我们对批量大小的选择。

python 复制代码
def sgd(params, lr, batch_size):
    """小批量随机梯度下降"""
    with torch.no_grad():
        for param in params:
            param -= lr * param.grad / batch_size
            param.grad.zero_()

2.7 训练

在每次迭代中,我们读取小批量训练样本,并通过我们的模型来获得一组预测,计算完损失后,开始反向传播,存储每个参数的梯度。最后,调用优化算法SGD来更新模型参数。

将执行以下迭代;

  1. 初始化参数

  2. 重复以下训练,直到完成:

    • 计算梯度 g ← ∂ ( w , b ) 1 ∣ B ∣ ∑ i ∈ B l ( x ( i ) , y ( i ) , w , b ) \bm g \leftarrow \partial_{(\bm w,b)} \frac 1 {\vert B \vert}\sum_{i \in B} l(\bm x^{(i)},y^{(i)},\bm w,b) g←∂(w,b)∣B∣1∑i∈Bl(x(i),y(i),w,b)
      -更新参数 ( w , b ) ← ( w , b ) − η g (\bm w,b) \leftarrow (\bm w,b)- \eta\bm g (w,b)←(w,b)−ηg

在每轮(epoch)中,我们使用data_iter函数遍历整个数据集,并将训练数据集中的所有样本都使用一次(假设样本数能够被批量大小整除)。

这里的轮数num_epochs和学习率lr都是超参数,分别设为3和0.03.

设置超参数比较麻烦,需要通过反复实验进行调整。

python 复制代码
lr = 0.03
num_epochs = 3
net = linreg
loss = squared_loss

for epoch in range(num_epochs):
    for X, y in data_iter(batch_size, features, labels):
        l = loss(net(X, w, b), y) # X和y的小批量损失
        # 因为l的形状是(batch_size, 1),而不是一个标量
        # l中的所有元素被加到一起,并以此计算关于[w, b]的梯度
        l.sum().backward()
        sgd([w, b], lr, batch_size) # 使用参数的梯度更新参数
    with torch.no_grad():
        train_l = loss(net(features, w, b), labels)
        print(f'epoch{epoch + 1}, loss{float(train_l.mean()):f}')

因为使用的是自己合成的数据集,所以知道真实的参数是什么。因此,我们可以通过比较真实参数和通过训练学习的参数来评估训练好坏程度。事实上,真实参数和通过训练学习的参数确实非常相近。

python 复制代码
print(f'w的估计误差:{true_w - w.reshape(true_w.shape)}')
print(f'b的估计误差:{true_b - b}')

在机器学习中,我们通常不太关心恢复真实的参数,而更关心如何高度准确地预测参数。

相关推荐
余炜yw3 小时前
【LSTM实战】跨越千年,赋诗成文:用LSTM重现唐诗的韵律与情感
人工智能·rnn·深度学习
莫叫石榴姐3 小时前
数据科学与SQL:组距分组分析 | 区间分布问题
大数据·人工智能·sql·深度学习·算法·机器学习·数据挖掘
96773 小时前
对抗样本存在的原因
深度学习
YRr YRr4 小时前
深度学习:神经网络中的损失函数的使用
人工智能·深度学习·神经网络
静静的喝酒4 小时前
深度学习笔记之BERT(二)BERT精简变体:ALBERT
深度学习·bert·albert
麦麦大数据4 小时前
Python棉花病虫害图谱系统CNN识别+AI问答知识neo4j vue+flask深度学习神经网络可视化
人工智能·python·深度学习
谢眠5 小时前
深度学习day3-自动微分
python·深度学习·机器学习
z千鑫5 小时前
【人工智能】深入理解PyTorch:从0开始完整教程!全文注解
人工智能·pytorch·python·gpt·深度学习·ai编程
YRr YRr5 小时前
深度学习:神经网络的搭建
人工智能·深度学习·神经网络
爱喝热水的呀哈喽5 小时前
torch张量与函数表达式写法
人工智能·pytorch·深度学习