神经网络实战2-损失函数和反向传播


其实就是通过求偏导的方式,求出各个权重大小

loss函数是找最小值的,要求导,在计算机里面计算导数是倒着来的,所以叫反向传播。

c 复制代码
import  torch
from torch.nn import L1Loss

inputs=torch.tensor([1,2,3],dtype=torch.float32)
target=torch.tensor([1,2,5],dtype=torch.float32)

inputs=torch.reshape(inputs,(1,1,1,3))#这里rershape的目的是增加batch_size这一数据
target=torch.reshape(target,(1,1,1,3))
loss=L1Loss()
result=loss(inputs,target)
print(result)

对以上的一个简单设计

loss的默认reduction是mean即平均值

我们需要的是相加

c 复制代码
import  torch
from torch.nn import L1Loss

inputs=torch.tensor([1,2,3],dtype=torch.float32)
target=torch.tensor([1,2,5],dtype=torch.float32)

inputs=torch.reshape(inputs,(1,1,1,3))#这里rershape的目的是增加batch_size这一数据
target=torch.reshape(target,(1,1,1,3))
loss=L1Loss(reduction='sum')
result=loss(inputs,target)
print(result)

均方差

反向传播

相关推荐
打点计时器8 分钟前
深度模型量化入门(一)
人工智能·深度学习
爱学习的张大13 分钟前
transform基础练习(从细节里面理解)
人工智能·pytorch·深度学习
轴测君16 分钟前
卷积神经网络的开端:LeNet−5
人工智能·神经网络·cnn
沛沛rh4524 分钟前
Rust浮点数完全指南:从基础到实战避坑
深度学习·算法·计算机视觉·rust
咕泡科技30 分钟前
从“贪吃蛇”进化论,看懂机器学习、深度学习与强化学习的区别
人工智能·深度学习·机器学习·咕泡科技·咕泡人工智能
轴测君33 分钟前
AlexNet
深度学习·计算机视觉·github
劈星斩月34 分钟前
3Blue1Brown-深度学习之梯度下降法
深度学习·损失函数·梯度下降
2501_9481201534 分钟前
深度学习在爬虫图片数据内容识别中的应用
人工智能·爬虫·深度学习
AI街潜水的八角1 小时前
医学图像算法之基于MK_UNet的肾小球分割系统1:数据集说明(含下载链接)
pytorch·深度学习
摘星星的屋顶1 小时前
2026年1月19日~2026年1月25日周报
人工智能·深度学习·学习