神经网络实战2-损失函数和反向传播


其实就是通过求偏导的方式,求出各个权重大小

loss函数是找最小值的,要求导,在计算机里面计算导数是倒着来的,所以叫反向传播。

c 复制代码
import  torch
from torch.nn import L1Loss

inputs=torch.tensor([1,2,3],dtype=torch.float32)
target=torch.tensor([1,2,5],dtype=torch.float32)

inputs=torch.reshape(inputs,(1,1,1,3))#这里rershape的目的是增加batch_size这一数据
target=torch.reshape(target,(1,1,1,3))
loss=L1Loss()
result=loss(inputs,target)
print(result)

对以上的一个简单设计

loss的默认reduction是mean即平均值

我们需要的是相加

c 复制代码
import  torch
from torch.nn import L1Loss

inputs=torch.tensor([1,2,3],dtype=torch.float32)
target=torch.tensor([1,2,5],dtype=torch.float32)

inputs=torch.reshape(inputs,(1,1,1,3))#这里rershape的目的是增加batch_size这一数据
target=torch.reshape(target,(1,1,1,3))
loss=L1Loss(reduction='sum')
result=loss(inputs,target)
print(result)

均方差

反向传播

相关推荐
智算菩萨14 分钟前
通往AGI之路:基于性能与通用性的等级划分框架深度解析
论文阅读·人工智能·深度学习·ai·agi
郝学胜-神的一滴1 小时前
深度学习入门基石:PyTorch张量核心技术全解析
人工智能·pytorch·python·深度学习·算法·机器学习
不当菜鸡的程序媛1 小时前
神经网络——bias 偏置项(bias term) 或者截距项(intercept term)
人工智能·神经网络·算法
计算机科研狗@OUC2 小时前
(tip26) Interactive Spatial-Frequency Fusion Mamba for Multi-Modal Image Fusion
人工智能·深度学习
ppppppatrick2 小时前
【深度学习基础篇12】从 GPT 到 DeepSeek:大模型的架构革命与工程美学
gpt·深度学习·架构
hongyuyahei2 小时前
GSPO策略损失完整演示
pytorch·python
&星痕&2 小时前
从零开始手搓 (1)计算图 (c++,python语言实现)
c++·python·深度学习·机器学习
青禾木森2 小时前
学习 AI 系列|初识 RAG:深入分析分块策略和向量的技术实现 02
深度学习
duyinbi75172 小时前
多尺度空洞卷积分支模块改进YOLOv26感受野扩展与特征提取能力双重突破
深度学习·yolo·目标跟踪
忧郁的橙子.2 小时前
04-自定义微调训练BERT模型效果测试 +中文八分类
人工智能·深度学习·bert·中文多分类模型训练