【pytorch22】激活函数与GPU加速

激活函数


ReLu还是还是可能出现梯度弥散,因为x<0的时候,梯度还是可能小于0

leaky relu,在x<0的时候,梯度就不会为0,梯度不会不动

Relu函数在x=0处是不连续的

一种更加光滑的曲线是SELU,是两个函数的concat

softplus,把ReLu的尖点x=0做了一个平滑处理,使得导数不连续的地方导数连续

目前用的最多的是Relu、sigmoid,tan h(RNN)以及Leaky Relu

GPU加速

loss层也是需要计算的,可以把loss层也搬到GPU上去

相关推荐
蒋星熠1 天前
反爬虫机制深度解析:从基础防御到高级对抗的完整技术实战
人工智能·pytorch·爬虫·python·深度学习·机器学习·计算机视觉
it技术1 天前
Pytorch项目实战 :基于RNN的实现情感分析
pytorch·后端
mooooon L2 天前
DAY 43 复习日-2025.10.7
人工智能·pytorch·python·深度学习·神经网络
ting_zh2 天前
PyTorch、TensorFlow、JAX 简介
人工智能·pytorch·tensorflow
wa的一声哭了2 天前
Stanford CS336 assignment1 | Transformer Language Model Architecture
人工智能·pytorch·python·深度学习·神经网络·语言模型·transformer
JJJJ_iii2 天前
【深度学习04】PyTorch:损失函数、优化器、模型微调、保存与加载
人工智能·pytorch·笔记·python·深度学习·机器学习
Francek Chen2 天前
【深度学习计算机视觉】10:转置卷积
人工智能·pytorch·深度学习·计算机视觉·卷积神经网络
算法与编程之美2 天前
探索flatten的其他参数用法及对报错异常进行修正
人工智能·pytorch·python·深度学习·机器学习
Ykkk_3 天前
小土堆pytorch
人工智能·pytorch·python
FriendshipT3 天前
图像分割:PyTorch从零开始实现SegFormer语义分割
人工智能·pytorch·python·深度学习·目标检测·语义分割·实例分割