【深度学习】【框架】【基本结构】激活函数

1. relu

2. softmax

3. sigmoid

4. silu

函数:f(x) = x * sigmoid(x)

优点: 它既有 ReLU(Rectified Linear Unit)激活函数的一些优点(例如,能够缓解梯度消失问题),又能解决 ReLU 函数的一些缺点(例如,ReLU 函数不是零中心的,且在负数部分的梯度为零)。此外,Swish 函数还是平滑函数,这意味着它在整个定义域内都有导数,这有利于优化。

SiLu激活函数解释-CSDN博客

相关推荐
老艾的AI世界4 分钟前
AI去、穿、换装软件下载,无内容限制,偷偷收藏
图像处理·人工智能·深度学习·神经网络·目标检测·机器学习·ai·换装·虚拟试衣·ai换装·一键换装
Navicat中国10 分钟前
Navicat 询问 AI | 如何转换 SQL 为另一种数据库类型
数据库·人工智能·sql·数据库开发·navicat
javgo.cn11 分钟前
Spring AI Alibaba - 聊天机器人快速上手
人工智能·ai·机器人
OpenC++38 分钟前
【机器学习】核心分类及详细介绍
人工智能·机器学习·分类
大千AI助手1 小时前
艾伦·图灵:计算理论与人工智能的奠基人
人工智能·密码学·图灵·turing·人工智能之父·计算机科学之父·图灵机
软件测试-阿涛1 小时前
【AI绘画】Stable Diffusion webUI 常用功能使用技巧
人工智能·深度学习·计算机视觉·ai作画·stable diffusion
轻流AI1 小时前
线索转化率翻3倍?AI重构CRM
大数据·人工智能·低代码·重构
skywalk81631 小时前
LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。
人工智能·语言模型·自然语言处理
2301_821919921 小时前
机器学习概述(一)
人工智能·机器学习
果粒橙_LGC2 小时前
自学大语言模型之Transformer的Tokenizer
人工智能·语言模型·transformer