深度学习基础知识softmax,ReLU,sigmoid之间的联系与区别

softmax

讲参数指数化,讲指数化的结果归一化。

指数化,将所有的输入参数变为非负,同时加大数据之间的差异。

最后归一化,是为了满足概率分布的基本性质,也就是输出值的和为1。

Softmax(zi)=ezi∑j=1nezj \text{Softmax}(z_i) = \frac{e^{z_i }}{\sum_{j=1}^{n} e^{z_j }} Softmax(zi)=∑j=1nezjezi

所以softmax的作用就是放大并归一化参数。不改变参数的大小次序。

而涉及到非线性变换的时候,就要考虑激活函数

激活函数

sigmoid和ReLU就是两种非线性激活函数,其中ReLU修正线性单元(Rectified linear unit,ReLU)。

ReLU,当输入参数小于0,输出0,当大于0,就输出参数x本身。因为比较简单,所以比较常用。

另一种就是sigmoid激活函数,他是讲输出的函数值映射在(0,1)区间

以及tanh函数

相关推荐
Captaincc1 分钟前
转发-中央网信办部署开展“清朗·整治AI应用乱象”专项行动
人工智能·vibecoding
AI自动化工坊13 分钟前
Late框架技术深度解析:5GB VRAM实现10倍AI编码效率的工程架构
人工智能·5g·架构·ai编程·late
我是大聪明.30 分钟前
DeepSeek V4 Pro + 华为昇腾910:国产大模型落地的性能实测与深度解析
人工智能·华为
机器之心1 小时前
Generalist之后,罗剑岚团队推出LWD,也要变革具身智能训练范式
人工智能·openai
IT_陈寒1 小时前
Vite的public文件夹放静态资源?这坑我替你踩了
前端·人工智能·后端
传说故事1 小时前
【论文阅读】Diffusion Forcing: Next-token Prediction Meets Full-Sequence Diffusion
论文阅读·人工智能·diffusion
xixixi777771 小时前
三重筑基:5G-A超级上行提速千兆,电联低频共享扫平盲点,800V HVDC算电协同破局
人工智能·5g·ai·大模型·算力·通信·信通院
jkyy20141 小时前
AI运动数字化:以技术重塑场景,健康有益赋能全域运动健康管理
大数据·人工智能·健康医疗
金融小师妹1 小时前
4月30日多因子共振节点:鲍威尔“收官效应”与权力结构重塑的预期重构
大数据·人工智能·重构·逻辑回归
2601_949925181 小时前
AI Agent如何重构跨境物流的决策?
大数据·人工智能·重构·ai agent·geo优化·物流科技