深度学习基础知识softmax,ReLU,sigmoid之间的联系与区别

softmax

讲参数指数化,讲指数化的结果归一化。

指数化,将所有的输入参数变为非负,同时加大数据之间的差异。

最后归一化,是为了满足概率分布的基本性质,也就是输出值的和为1。

Softmax(zi)=ezi∑j=1nezj \text{Softmax}(z_i) = \frac{e^{z_i }}{\sum_{j=1}^{n} e^{z_j }} Softmax(zi)=∑j=1nezjezi

所以softmax的作用就是放大并归一化参数。不改变参数的大小次序。

而涉及到非线性变换的时候,就要考虑激活函数

激活函数

sigmoid和ReLU就是两种非线性激活函数,其中ReLU修正线性单元(Rectified linear unit,ReLU)。

ReLU,当输入参数小于0,输出0,当大于0,就输出参数x本身。因为比较简单,所以比较常用。

另一种就是sigmoid激活函数,他是讲输出的函数值映射在(0,1)区间

以及tanh函数

相关推荐
居7然1 天前
ChatGPT是怎么学会接龙的?
深度学习·语言模型·chatgpt·性能优化·transformer
5Gcamera1 天前
4G body camera BC310/BC310D user manual
人工智能·边缘计算·智能安全帽·执法记录仪·smarteye
爱喝可乐的老王1 天前
机器学习中常用交叉验证总结
人工智能·机器学习
公链开发1 天前
2026 Web3机构级风口:RWA Tokenization + ZK隐私系统定制开发全解析
人工智能·web3·区块链
wyw00001 天前
目标检测之YOLO
人工智能·yolo·目标检测
发哥来了1 天前
AI视频生成企业级方案选型指南:2025年核心能力与成本维度深度对比
大数据·人工智能
_codemonster1 天前
强化学习入门到实战系列(四)马尔科夫决策过程
人工智能
北邮刘老师1 天前
智能体治理:人工智能时代信息化系统的全新挑战与课题
大数据·人工智能·算法·机器学习·智能体互联网
laplace01231 天前
第七章 构建自己的agent智能体框架
网络·人工智能·microsoft·agent
诗词在线1 天前
中国古代诗词名句按主题分类有哪些?(爱国 / 思乡 / 送别)
人工智能·python·分类·数据挖掘