神经网络实战2-损失函数和反向传播


其实就是通过求偏导的方式,求出各个权重大小

loss函数是找最小值的,要求导,在计算机里面计算导数是倒着来的,所以叫反向传播。

c 复制代码
import  torch
from torch.nn import L1Loss

inputs=torch.tensor([1,2,3],dtype=torch.float32)
target=torch.tensor([1,2,5],dtype=torch.float32)

inputs=torch.reshape(inputs,(1,1,1,3))#这里rershape的目的是增加batch_size这一数据
target=torch.reshape(target,(1,1,1,3))
loss=L1Loss()
result=loss(inputs,target)
print(result)

对以上的一个简单设计

loss的默认reduction是mean即平均值

我们需要的是相加

c 复制代码
import  torch
from torch.nn import L1Loss

inputs=torch.tensor([1,2,3],dtype=torch.float32)
target=torch.tensor([1,2,5],dtype=torch.float32)

inputs=torch.reshape(inputs,(1,1,1,3))#这里rershape的目的是增加batch_size这一数据
target=torch.reshape(target,(1,1,1,3))
loss=L1Loss(reduction='sum')
result=loss(inputs,target)
print(result)

均方差

反向传播

相关推荐
工业机器视觉设计和实现41 分钟前
微分方程的联想
人工智能·神经网络·感想
罗罗攀1 小时前
PyTorch学习笔记|神经网络的损失函数
人工智能·pytorch·笔记·神经网络·学习
枫叶林FYL4 小时前
第10章 符号推理与神经符号AI
pytorch·python·深度学习
小超同学你好6 小时前
Transformer 22. Gemma 1 架构详解:Decoder-only、GeGLU、RoPE 与每一步计算
人工智能·深度学习·transformer
fof9208 小时前
Base LLM | 从 NLP 到 LLM 的算法全栈教程 第七天
人工智能·深度学习
龙文浩_8 小时前
AI深度学习/PyTorch/反向传播与梯度下降
人工智能·pytorch·深度学习
独隅8 小时前
Keras 全面介绍:从入门到实践
人工智能·深度学习·keras
工业机器视觉设计和实现8 小时前
自己的初心,在bpnet基础上自研cnn
人工智能·神经网络·cnn
cyyt8 小时前
深度学习周报(3.30~4.5)
人工智能·深度学习
qq_571099359 小时前
学习周报三十九
人工智能·深度学习·机器学习