注:本代码在jupyter notebook上运行
封面图片来源
1、生成数据集
python
%matplotlib inline
import random
import torch
from d2l import torch as d2l
构造数据集:生成一个包含1000个样本的数据集, 每个样本包含从标准正态分布中采样的2个特征。
python
def synthetic_data(w, b, num_examples): #@save
"""生成y=Xw+b+噪声"""
X = torch.normal(0, 1, (num_examples, len(w))) # [1000,2]
y = torch.matmul(X, w) + b # [1000,2]*[2, 1]=[1000, 1]
y += torch.normal(0, 0.01, y.shape)
# return X, y.reshape((-1, 1)) # 不用reshape应该也行
return X, y
true_w = torch.tensor([2, -3.4])
true_b = 4.2
features, labels = synthetic_data(true_w, true_b, 1000)
python
print('features:', features[0],'\nlabel:', labels[0])
可视化一下
python
d2l.set_figsize()
d2l.plt.scatter(features[:, (1)].detach().numpy(), labels.detach().numpy(), 1);# x,y,点的大小
总是用沐神的d2l终归不太好,动手实现一下吧
python
import matplotlib.pyplot as plt
import matplotlib
# 设置Matplotlib的字体为支持中文的字体
# 这里以'SimHei'为例,但具体可用的字体取决于你的系统
matplotlib.rcParams['font.sans-serif'] = ['SimHei'] # 指定默认字体为黑体
matplotlib.rcParams['axes.unicode_minus'] = False # 解决保存图像时负号'-'显示为方块的问题
# 准备数据
x = features[:, 1].detach().numpy()
y = labels.detach().numpy()
# 绘制散点图
plt.scatter(x, y, s=1)
# 添加标题和坐标轴标签
plt.title('散点图')
plt.xlabel('features')
plt.ylabel('y')
# 显示图表(在Jupyter Notebook中通常是可选的)
plt.show()
2、读取数据集
训练模型时要对数据集进行遍历,每次抽取一小批量样本,并使用它们来更新模型。 由于这个过程是训练机器学习算法的基础,所以有必要定义一个函数, 该函数能打乱数据集中的样本并以小批量方式获取数据。
在下面的代码中定义了一个data_iter函数, 该函数接收批量大小、特征矩阵和标签向量作为输入,生成大小为batch_size的小批量。 每个小批量包含一组特征和标签。
python
def data_iter(batch_size, features, labels):
num_examples = len(features)
indices = list(range(num_examples))
# 这些样本是随机读取的,没有特定的顺序
random.shuffle(indices)
for i in range(0, num_examples, batch_size):
batch_indices = torch.tensor(
indices[i: min(i + batch_size, num_examples)])
yield features[batch_indices], labels[batch_indices]
# yield使得这个函数成为一个生成器,可以按需生成数据批次,而不是一次性将所有数据加载到内存中。
读取一个小批量数据样本并打印
python
batch_size = 50
for X, y in data_iter(batch_size, features, labels):
print(X, '\n', y)
break
3、初始化模型参数
从均值为0、标准差为0.01的正态分布中采样随机数来初始化权重, 并将偏置初始化为0。
python
w = torch.normal(0, 0.01, size=(2,1), requires_grad=True)
b = torch.zeros(1, requires_grad=True)
4、定义模型
python
def linreg(X, w, b): #@save
"""线性回归模型"""
return torch.matmul(X, w) + b
5、定义损失函数
python
def squared_loss(y_hat, y): #@save
"""均方损失"""
return (y_hat - y.reshape(y_hat.shape)) ** 2 / 2
python
# 6、定义优化算法
python
def sgd(params, lr, batch_size): #@save
"""小批量随机梯度下降"""
with torch.no_grad():
for param in params:
param -= lr * param.grad / batch_size
param.grad.zero_()
7、训练
在每个迭代周期(epoch)中,我们使用data_iter函数遍历整个数据集, 并将训练数据集中所有样本都使用一次(假设样本数能够被批量大小整除)。 这里的迭代周期个数num_epochs和学习率lr都是超参数,分别设为3和0.03。
python
lr = 0.03 # 学习率
num_epochs = 3 # 训练轮数
net = linreg # 调用的上面模型
loss = squared_loss # 损失函数
python
for epoch in range(num_epochs):
for X, y in data_iter(batch_size, features, labels):
l = loss(net(X, w, b), y) # X和y的小批量损失
# 因为l形状是(batch_size,1),而不是一个标量。l中的所有元素被加到一起,
# 并以此计算关于[w,b]的梯度
# print(f'epoch {epoch + 1}, loss {float(train_l.mean()):f}')
l.sum().backward()
sgd([w, b], lr, batch_size) # 使用参数的梯度更新参数
with torch.no_grad(): # 输出训练完一个epoch的损失
train_l = loss(net(features, w, b), labels)
print(f'epoch {epoch + 1}, loss {float(train_l.mean()):f}')
因为我们使用的是自己合成的数据集,知道真正的参数是什么。 因此,可以通过比较真实参数和通过训练学到的参数来评估训练的成功程度。 真实参数和通过训练学到的参数确实非常接近。
python
print(f'w的估计误差: {true_w - w.reshape(true_w.shape)}')
print(f'b的估计误差: {true_b - b}')
欢迎点击我的主页查看更多文章。
本人学习地址https://zh-v2.d2l.ai/
恳请大佬批评指正。