神经网络实战2-损失函数和反向传播


其实就是通过求偏导的方式,求出各个权重大小

loss函数是找最小值的,要求导,在计算机里面计算导数是倒着来的,所以叫反向传播。

c 复制代码
import  torch
from torch.nn import L1Loss

inputs=torch.tensor([1,2,3],dtype=torch.float32)
target=torch.tensor([1,2,5],dtype=torch.float32)

inputs=torch.reshape(inputs,(1,1,1,3))#这里rershape的目的是增加batch_size这一数据
target=torch.reshape(target,(1,1,1,3))
loss=L1Loss()
result=loss(inputs,target)
print(result)

对以上的一个简单设计

loss的默认reduction是mean即平均值

我们需要的是相加

c 复制代码
import  torch
from torch.nn import L1Loss

inputs=torch.tensor([1,2,3],dtype=torch.float32)
target=torch.tensor([1,2,5],dtype=torch.float32)

inputs=torch.reshape(inputs,(1,1,1,3))#这里rershape的目的是增加batch_size这一数据
target=torch.reshape(target,(1,1,1,3))
loss=L1Loss(reduction='sum')
result=loss(inputs,target)
print(result)

均方差

反向传播

相关推荐
不爱吃于先生2 小时前
生成对抗网络(Generative Adversarial Nets,GAN)
人工智能·神经网络·生成对抗网络
kyle~2 小时前
深度学习---框架流程
人工智能·深度学习
烟锁池塘柳04 小时前
【深度学习】评估模型复杂度:GFLOPs与Params详解
人工智能·深度学习
白熊1884 小时前
【计算机视觉】CV实战项目- DFace: 基于深度学习的高性能人脸识别
人工智能·深度学习·计算机视觉
毒果4 小时前
深度学习大模型: AI 阅卷替代人工阅卷
人工智能·深度学习
六边形战士DONK6 小时前
神经网络基础[损失函数,bp算法,梯度下降算法 ]
人工智能·神经网络·算法
__lost6 小时前
MATLAB实现神经网络的OCR识别
神经网络·matlab·ocr
xMathematics6 小时前
深度学习与SLAM特征提取融合:技术突破与应用前景
人工智能·深度学习
蹦蹦跳跳真可爱5896 小时前
Python----深度学习(基于DNN的吃鸡预测)
python·深度学习·dnn
每天都要写算法(努力版)6 小时前
【神经网络与深度学习】批标准化(Batch Normalization)和层标准化(Layer Normalization)
深度学习·神经网络·batch