【pytorch22】激活函数与GPU加速

激活函数


ReLu还是还是可能出现梯度弥散,因为x<0的时候,梯度还是可能小于0

leaky relu,在x<0的时候,梯度就不会为0,梯度不会不动

Relu函数在x=0处是不连续的

一种更加光滑的曲线是SELU,是两个函数的concat

softplus,把ReLu的尖点x=0做了一个平滑处理,使得导数不连续的地方导数连续

目前用的最多的是Relu、sigmoid,tan h(RNN)以及Leaky Relu

GPU加速

loss层也是需要计算的,可以把loss层也搬到GPU上去

相关推荐
吨吨不打野1 小时前
CS336——2. PyTorch, resource accounting
人工智能·pytorch·python
大模型真好玩7 小时前
大模型训练全流程实战指南基础篇(二)——大模型文件结构解读与原理解析
人工智能·pytorch·langchain
棒棒的皮皮8 小时前
【深度学习】YOLO 模型核心部署格式全解析(PyTorch/ONNX/TensorRT/TFLite)
pytorch·深度学习·yolo·计算机视觉
koo3649 小时前
pytorch深度学习笔记15
pytorch·笔记·深度学习
程序员老赵10 小时前
PyTorch Docker 容器化部署与生产运行实践
pytorch·docker·容器
有为少年11 小时前
PyTorch 的统计三剑客:bucketize, bincount 与 histogram
pytorch·python·学习·机器学习·统计
姓刘的哦12 小时前
推理PyTorch模型的方法
人工智能·pytorch·python
__如风__12 小时前
国产海光CPU+DCU+麒麟OS上使用Docker成功部署PaddleSpeech实战
pytorch·python·paddlepaddle
躺平的赶海人12 小时前
PyTorch 安装指南:快速开启深度学习之旅
人工智能·pytorch·深度学习
:mnong13 小时前
深度学习框架TensorFlow与PyTorch的对比
pytorch·深度学习·tensorflow