深度学习 (线性回归 简洁实现)

介绍:

在线性神经网络中,线性回归是一种常见的任务,用于预测一个连续的数值输出。其目标是根据输入特征来拟合一个线性函数,使得预测值与真实值之间的误差最小化。

线性回归的数学表达式为:

y = w1x1 + w2x2 + ... + wnxn + b

其中,y表示预测的输出值,x1, x2, ..., xn表示输入特征,w1, w2, ..., wn表示特征的权重,b表示偏置项。

训练线性回归模型的目标是找到最优的权重和偏置项,使得模型预测的输出与真实值之间的平方差(即损失函数)最小化。这一最优化问题可以通过梯度下降等优化算法来解决。

线性回归在深度学习中也被广泛应用,特别是在浅层神经网络中。在深度学习中,通过将多个线性回归模型组合在一起,可以构建更复杂的神经网络结构,以解决更复杂的问题。

深度学习 线性神经网络(线性回归 从零开始实现)-CSDN博客

生成数据集:

python 复制代码
import numpy as np
import torch
from torch.utils import data
from d2l import torch as d2l

true_w = d2l.tensor([2, -3.4])
true_b = 4.2
features, labels = d2l.synthetic_data(true_w, true_b, 1000)

读取小批量数据集:

python 复制代码
#选取小批量样本
def load_array(data_arrays,batch_size,is_train=True):
    dataset = data.TensorDataset(*data_arrays)
    return data.DataLoader(dataset,batch_size,shuffle=is_train)

定义模型:

python 复制代码
from torch import nn#"nn"是神经网络的缩写

net = nn.Sequential(nn.Linear(2,1))#输入维度2,输出维度1

定义损失函数:

python 复制代码
loss = nn.MSELoss()#均分误差函数

定义优化函数(实例化SGD):

python 复制代码
#实例化SGD
trainer = torch.optim.SGD(net.parameters(),lr=0.03)#参数、学习率

模型训练:

python 复制代码
num_epochs=8
for epoch in range(num_epochs):
    for X, y in data_iter:#拿出一批量x,y
        l = loss(net(X), y)  # X和y的小批量损失,实际的和预测的
        trainer.zero_grad()
        l.backward()
        trainer.step()  # 使用参数的梯度更新参数
    l = loss(net(features),labels)
    print(f'epoch {epoch + 1}, loss {l:f}')

'''
epoch 1, loss 0.000175
epoch 2, loss 0.000096
epoch 3, loss 0.000095
epoch 4, loss 0.000095
epoch 5, loss 0.000095
epoch 6, loss 0.000095
epoch 7, loss 0.000095
epoch 8, loss 0.000096
'''

print(net[0].weight)
'''
Parameter containing:
tensor([[ 2.0004, -3.3990]], requires_grad=True)
'''

print(net[0].bias)
'''
Parameter containing:
tensor([4.2007], requires_grad=True)

'''
相关推荐
袁庭新11 分钟前
全球首位AI机器人部长,背负反腐重任
人工智能·aigc
机器之心27 分钟前
谁说Scaling Law到头了?新研究:每一步的微小提升会带来指数级增长
人工智能·openai
算家计算40 分钟前
AI配音革命!B站最新开源IndexTTS2本地部署教程:精准对口型,情感随心换
人工智能·开源·aigc
量子位43 分钟前
马斯克周末血裁xAI 500人
人工智能·ai编程
算家计算1 小时前
OpenAI最强编程模型GPT-5-Codex发布!可独立编程7小时,编程效率提升10倍
人工智能·ai编程·资讯
聚客AI3 小时前
🌟大模型为什么产生幻觉?预训练到推理的漏洞全揭秘
人工智能·llm·掘金·日新计划
Juchecar3 小时前
一文讲清 nn.Sequential 等容器类
人工智能
阿里云云原生3 小时前
如何快速看懂「祖传项目」?Qoder 强势推出新利器
人工智能
美团技术团队3 小时前
LongCat-Flash:如何使用 SGLang 部署美团 Agentic 模型
人工智能·算法
程序员小袁5 小时前
基于C-MTEB/CMedQAv2-rerankingv的Qwen3-1.7b模型微调-demo
人工智能