深度学习基础知识softmax,ReLU,sigmoid之间的联系与区别

softmax

讲参数指数化,讲指数化的结果归一化。

指数化,将所有的输入参数变为非负,同时加大数据之间的差异。

最后归一化,是为了满足概率分布的基本性质,也就是输出值的和为1。

Softmax(zi)=ezi∑j=1nezj \text{Softmax}(z_i) = \frac{e^{z_i }}{\sum_{j=1}^{n} e^{z_j }} Softmax(zi)=∑j=1nezjezi

所以softmax的作用就是放大并归一化参数。不改变参数的大小次序。

而涉及到非线性变换的时候,就要考虑激活函数

激活函数

sigmoid和ReLU就是两种非线性激活函数,其中ReLU修正线性单元(Rectified linear unit,ReLU)。

ReLU,当输入参数小于0,输出0,当大于0,就输出参数x本身。因为比较简单,所以比较常用。

另一种就是sigmoid激活函数,他是讲输出的函数值映射在(0,1)区间

以及tanh函数

相关推荐
Surmon5 小时前
彻底搞懂大模型 Temperature、Top-p、Top-k 的区别!
前端·人工智能
见行AGV机器人7 小时前
无人机脉动线中的AGV小车
人工智能·无人机·agv·非标定制agv
廋到被风吹走7 小时前
【AI】从 OpenAI Codex 到 GitHub Copilot:AI 编程助手的技术演进脉络
人工智能·github·copilot
newsxun7 小时前
DHA之后,大脑营养进入GPC时代?
人工智能
程序员Better7 小时前
2026年AI大模型选择指南:8大主流模型深度对比,小白秒懂如何选!
人工智能
ai_xiaogui7 小时前
AIStarter新版后端原型图详解:架构全面升级+共享环境一键部署,本地AI模型插件工作流管理新时代来临(2026开发者必看)
人工智能·架构·推动开源ai落地·原型图细节·aistarter新版·aistarter新版原型图·架构全面升级+共享环境一键部署
2501_926978337 小时前
“LLM的智能本质--AGI的可能路径--人类的意识本质”三者的统一基底(5.0理论解读)
人工智能·经验分享·笔记·深度学习·机器学习·ai写作·agi
拾光向日葵8 小时前
2026贵州高职专科报考全问答合集:专业、就业与实力大盘点
大数据·人工智能·物联网
لا معنى له8 小时前
WAM与AC-WM:具身智能时代的世界动作模型与动作条件世界模型
人工智能·笔记·学习
uzong8 小时前
AI Agent 是什么,如何理解它,未来挑战和思考
人工智能·后端·架构