技术栈
激活函数
flying_1314
3 天前
激活函数
·
正则化
·
din
·
注意力单元
·
创新点
·
改进点
·
兴趣表征
推荐系统分享系列-DIN(Deep Interest Network for Click-Through Rate Prediction)(二)
目录一、主要创新点和重点通过引入注意力机制动态捕捉用户兴趣,进行向量表征Activation Unit模块
flying_1314
3 天前
激活函数
·
relu
·
prelu
·
dice
·
leaky-relu
面试常问系列(一)-激活函数-relu/leaky_relu/prelu/dice
目录一、为什么会出现这些激活函数一、梯度消失问题的根源1. Sigmoid/Tanh 的梯度消失Sigmoid:
flying_1314
9 天前
推荐系统
·
激活函数
·
din
·
注意力单元
·
prelu
·
dice
·
小批量感知正则化
推荐系统分享系列-DIN(Deep Interest Network for Click-Through Rate Prediction)(一)
目录摘要关键术语说明1 介绍成本每次点击(CPC)广告系统中的CTR预测深度学习在CTR预测中的应用用户兴趣多样性的表达瓶颈
Java后端的Ai之路
22 天前
人工智能
·
深度学习
·
神经网络
·
学习
·
激活函数
【神经网络基础】-一个完整的神经网络学习过程是怎样的?
步骤:示例:图像分类数据准备对于第l层:多层网络的前向传播:链式法则应用: ∂L/∂W⁽ˡ⁾ = ∂L/∂a⁽ᴸ⁾ · ∂a⁽ᴸ⁾/∂z⁽ᴸ⁾ · ∂z⁽ᴸ⁾/∂a⁽ᴸ⁻¹⁾ · … · ∂z⁽ˡ⁾/∂W⁽ˡ⁾
Java后端的Ai之路
23 天前
人工智能
·
深度学习
·
神经网络
·
激活函数
【神经网络基础】-激活函数详解
激活函数是神经网络中的核心组件之一,它决定了神经元是否应该被"激活"或"触发",并将输入信号转换为输出信号。你可以把它想象成神经元的"决策机制",帮助网络学习复杂的模式。
oscar999
24 天前
人工智能
·
深度学习
·
神经网络
·
激活函数
激活函数:神经网络的“开关”与“灵魂”
想象一下你家里的电灯开关。当你按下开关时,电流流过,灯泡亮起;关闭开关,电流中断,灯泡熄灭。在神经网络中,激活函数就是这样的"开关",它决定了一个神经元是否应该被"激活"(传递信号)。
最晚的py
24 天前
深度学习
·
激活函数
激活函数对比大全
激活函数为神经网络引入非线性,使模型能够学习复杂模式。不同激活函数在梯度传播、计算效率、输出范围等方面存在差异,直接影响训练效果。
大千AI助手
2 个月前
人工智能
·
神经网络
·
机器学习
·
激活函数
·
sigmoid
·
大千ai助手
·
lr
Sigmoid函数:从生物生长曲线到神经网络激活的桥梁
本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术!
大千AI助手
2 个月前
人工智能
·
深度学习
·
机器学习
·
分类
·
softmax
·
激活函数
·
大千ai助手
Softmax函数:深度学习中的多类分类基石与进化之路
本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术!
咋吃都不胖lyh
2 个月前
人工智能
·
深度学习
·
神经网络
·
激活函数
激活函数是什么,神经网络中为什么要有激活函数
如果说权重 和偏置 是神经网络的“骨架”和“肌肉”,那么激活函数(Activation Function)就是赋予这个网络“生命”的关节。
Dfreedom.
2 个月前
人工智能
·
深度学习
·
神经网络
·
softmax
·
激活函数
Softmax 函数:深度学习中的概率大师
本文适合对深度学习有一定基础,但对Softmax原理存在疑问的读者。我们将通过直观解释和具体示例,揭开这个在多分类任务中扮演关键角色的函数的神秘面纱。
大千AI助手
3 个月前
人工智能
·
深度学习
·
神经网络
·
激活函数
·
正态分布
·
gelu
·
高斯误差线性单元
GELU(高斯误差线性单元)激活函数全面解析
本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术!
亲持红叶
6 个月前
人工智能
·
深度学习
·
神经网络
·
激活函数
GLU 变种:ReGLU 、 GEGLU 、 SwiGLU
在 GLU 的基础上,陆续提出了若干“激活 + GLU”的混合门控单元。它们共享同一套“双线形投影 + 逐元素门控”范式,差别仅在于把 GLU 中的 Sigmoid 门控替换为其他非线性函数,从而在参数量几乎不变的前提下带来不同的归纳偏差与性能收益。
bcbobo21cn
6 个月前
神经网络
·
matlab
·
激活函数
·
tansig
初步了解Matlab神经网络的激活函数
一个基本的神经网络问题描述如下,一个具有双曲正切S型激活函数的单层网络,输入矢量有4组,每组有3个分量;输出矢量有5个神经元; 假定输入矢量和权矢量均取值为1。计算网络的输出。
陈壮实的搬砖生活
7 个月前
人工智能
·
深度学习
·
神经网络
·
激活函数
激活函数为何能增强神经网络的非线性表达能力?
神经网络的威力有多强?现在的大模型可以写诗作画、图像识别可以识人识猫,这背后都是神经网络的功劳。而激活函数在其中扮演着重要的角色,如果神经网络中没有“激活函数”,再深的网络其实也没啥用。本质上,它只是一堆线性函数的叠加,无法处理真正复杂的任务。本文分享一个关键问题:
codegarfield
8 个月前
人工智能
·
深度学习
·
神经网络
·
激活函数
关于神经网络中的激活函数
这篇博客主要介绍一下神经网络中的激活函数以及为什么要存在激活函数。首先,我先做一个简单的类比:激活函数的作用就像给神经网络里的 “数字信号” 加了一个 “智能阀门”,让机器能学会像人类一样思考复杂问题。
小猪猪_1
8 个月前
bp
·
激活函数
·
前馈神经网络
深度学习与神经网络 前馈神经网络
无需人去告知神经网络具体的特征是什么,神经网络可以自主学习(1)连续并可导(允许少数点不可导)的非线性函数
Ombré_mi
8 个月前
深度学习
·
神经网络
·
机器学习
·
激活函数
·
大模型训练
·
反向传播
机器学习中的关键术语及其含义
机器学习中的神经网络是一种模仿生物神经网络的结构和功能的数学模型或计算模型。它是指按照一定的规则将多个神经元连接起来的网络。
闲人编程
8 个月前
人工智能
·
python
·
深度学习
·
损失函数
·
激活函数
·
relu
·
分类回归
深度学习:损失函数与激活函数全解析
在深度学习中,损失函数和激活函数是模型训练过程中两个最核心的组件。损失函数衡量模型预测与真实值之间的差异,为优化算法提供方向;而激活函数为神经网络引入非线性能力,使网络能够学习复杂模式。本文将全面解析深度学习中常见的损失函数和激活函数,包括数学原理、特性分析、适用场景以及Python实现,并通过实验对比不同组合的效果。
郜太素
8 个月前
pytorch
·
神经网络
·
线性回归
·
激活函数
PyTorch 线性回归模型构建与神经网络基础要点解析
仿生生物学神经网络的计算模型ANN(人工神经网络)->NN(神经网络)神经网络是由三个层, 每层由多个神经元构成