神经网络实战2-损失函数和反向传播


其实就是通过求偏导的方式,求出各个权重大小

loss函数是找最小值的,要求导,在计算机里面计算导数是倒着来的,所以叫反向传播。

c 复制代码
import  torch
from torch.nn import L1Loss

inputs=torch.tensor([1,2,3],dtype=torch.float32)
target=torch.tensor([1,2,5],dtype=torch.float32)

inputs=torch.reshape(inputs,(1,1,1,3))#这里rershape的目的是增加batch_size这一数据
target=torch.reshape(target,(1,1,1,3))
loss=L1Loss()
result=loss(inputs,target)
print(result)

对以上的一个简单设计

loss的默认reduction是mean即平均值

我们需要的是相加

c 复制代码
import  torch
from torch.nn import L1Loss

inputs=torch.tensor([1,2,3],dtype=torch.float32)
target=torch.tensor([1,2,5],dtype=torch.float32)

inputs=torch.reshape(inputs,(1,1,1,3))#这里rershape的目的是增加batch_size这一数据
target=torch.reshape(target,(1,1,1,3))
loss=L1Loss(reduction='sum')
result=loss(inputs,target)
print(result)

均方差

反向传播

相关推荐
Omics Pro1 小时前
虚拟细胞:开启HIV/AIDS治疗新纪元的关键?
大数据·数据库·人工智能·深度学习·算法·机器学习·计算机视觉
专业发呆业余科研3 小时前
深度学习的隐形支架:对称性与不变性的架构统一论
人工智能·深度学习·神经网络·机器学习
雷帝木木3 小时前
Python 数据库 ORM 实战:SQLAlchemy 详解
人工智能·python·深度学习·机器学习
卡梅德生物科技小能手4 小时前
生物制药靶点深度解析:CD37(四跨膜蛋白)的作用机制与药物研发技术前沿
经验分享·深度学习·生活
小码吃趴菜4 小时前
深度学习八股-RNN
人工智能·rnn·深度学习
SkyXZ4 小时前
RDK-OE-LLM工具链量化SigLip全流程
深度学习·具身智能·rdk s100
AI医影跨模态组学5 小时前
Insights Imaging(IF=4.5)首都医科大学附属北京友谊医院等团队:CT深度学习联合营养标志物预测食管鳞癌3年生存期
人工智能·深度学习·论文·医学·医学影像
chase。5 小时前
【学习笔记】迈向通用神经运动规划器——深度学习如何重塑机器人操作手的“思考”方式
笔记·深度学习·学习
龙文浩_6 小时前
AI深度学习中ReLU等激活函数的原理与选择策略
人工智能·深度学习·神经网络
yunhuibin6 小时前
yolov3学习之官方推理代码学习
人工智能·深度学习·神经网络