深度学习基础知识softmax,ReLU,sigmoid之间的联系与区别

softmax

讲参数指数化,讲指数化的结果归一化。

指数化,将所有的输入参数变为非负,同时加大数据之间的差异。

最后归一化,是为了满足概率分布的基本性质,也就是输出值的和为1。

Softmax(zi)=ezi∑j=1nezj \text{Softmax}(z_i) = \frac{e^{z_i }}{\sum_{j=1}^{n} e^{z_j }} Softmax(zi)=∑j=1nezjezi

所以softmax的作用就是放大并归一化参数。不改变参数的大小次序。

而涉及到非线性变换的时候,就要考虑激活函数

激活函数

sigmoid和ReLU就是两种非线性激活函数,其中ReLU修正线性单元(Rectified linear unit,ReLU)。

ReLU,当输入参数小于0,输出0,当大于0,就输出参数x本身。因为比较简单,所以比较常用。

另一种就是sigmoid激活函数,他是讲输出的函数值映射在(0,1)区间

以及tanh函数

相关推荐
Light601 分钟前
智链未来:彭山物流园区从物理基建到数据智能体的全维度构建方案
人工智能·系统架构·数字孪生·智慧物流·实施路径·彭山项目
AI资源库4 分钟前
GLM-4.7-Flash模型深入解析
人工智能·语言模型
一切尽在,你来24 分钟前
1.2 LangChain 1.2.7 版本核心特性与升级点
人工智能·langchain
LYFlied26 分钟前
AI大时代下前端跨端解决方案的现状与演进路径
前端·人工智能
深蓝电商API29 分钟前
图片验证码识别:pytesseract+opencv入门
人工智能·opencv·计算机视觉·pytesseract
.Katherine௰29 分钟前
AI数字人模拟面试机器人
人工智能
光影少年30 分钟前
AI 前端 / 高级前端
前端·人工智能·状态模式
zhangshuang-peta35 分钟前
OpenCode vs Claude Code vs OpenAI Codex:AI编程助手全面对比
人工智能·ai agent·mcp·peta
Bruk.Liu38 分钟前
(LangChain 实战14):基于 ChatMessageHistory 自定义实现对话记忆功能
人工智能·python·langchain·agent
代码改善世界39 分钟前
CANN中的AI算子开发:ops-nn仓库深度解读
人工智能