技术栈

gelu

大千AI助手
1 个月前
人工智能·深度学习·神经网络·激活函数·正态分布·gelu·高斯误差线性单元
GELU(高斯误差线性单元)激活函数全面解析本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术!
愤怒的可乐
2 年前
论文阅读·激活函数·gelu
[论文笔记]GAUSSIAN ERROR LINEAR UNITS (GELUS)今天来看一下GELU的原始论文。作者提出了GELU(Gaussian Error Linear Unit,高斯误差线性单元)非线性激活函数: GELU = x Φ ( x ) \text{GELU}= x\Phi(x) GELU=xΦ(x),其中 Φ ( x ) \Phi(x) Φ(x)是标准高斯累积分布函数。与ReLU激活函数通过输入的符号进行门控不同,GELU非线性激活函数通过输入的数值进行加权。
我是有底线的