【激活函数:神经网络的“调味料】


1. 激活函数:神经网络的"调味料"

想象你在做菜:

  • 没有激活函数:就像只用水煮食材,味道单调(只能拟合线性关系)。
  • 加入激活函数:像加了盐、糖、辣椒,让菜有酸甜苦辣(非线性),味道丰富。

为什么需要它?

神经网络如果没有激活函数,无论多少层都只能解决"能用直线分割的问题"(比如区分"红苹果"和"青苹果")。但现实问题更复杂(比如区分"猫"和"狗"),需要激活函数引入"弯弯绕绕"的决策边界。


2. Softmax:选秀节目的评委打分

场景设定
  • 节目规则:3位选手(猫、狗、鸟)比赛,评委(神经网络)要给每个选手打分(logits),最后根据分数决定冠军(预测类别)。
  • 原始分数(logits):[猫: 5分, 狗: 3分, 鸟: 1分](直接打分可能不公平,因为评委手松/手紧)。
Softmax的作用
  1. 指数放大差距(避免人情分):

    • 猫:( e^5 ≈ 148.4 )
    • 狗:( e^3 ≈ 20.1 )
    • 鸟:( e^1 ≈ 2.7 )
    • (分数差距被拉开,更突出优秀选手)
  2. 归一化成概率

    • 总分 = 148.4 + 20.1 + 2.7 = 171.2
    • 猫概率 = 148.4 / 171.2 ≈ 86.7%
    • 狗概率 = 20.1 / 171.2 ≈ 11.7%
    • 鸟概率 = 2.7 / 171.2 ≈ 1.6%
    • 结果:猫以86.7%的概率夺冠!
为什么用Softmax?
  • 公平性 :无论评委打分偏高/偏低,最终概率只关注相对分数
  • 可解释性:输出是概率,比原始分数更直观(比如"猫有86%的可能性")。

3. 其他激活函数的比喻

激活函数 比喻 适用场景 例子
Sigmoid 开关(0~1之间) 二分类(如判断是否) "这封邮件是垃圾邮件吗?"
ReLU 水管(负数流不走) 隐藏层(快速计算) 图像识别中提取边缘特征
Tanh 双向开关(-1~1) 需要负输出的隐藏层 语音信号处理(有正有负)

4. 为什么Softmax只在最后一层?

继续选秀比喻:

  • 隐藏层:像海选阶段,评委只需粗暴淘汰(用ReLU快速过滤"明显不像猫的")。
  • 输出层:像总决赛,需要精细评分(Softmax比较"猫/狗/鸟"的细微差别)。

如果中间层用Softmax

相当于每场海选都强制选手PK出唯一胜者,会丢失多样性(比如"猫"和"狗"可能同时值得晋级)。


5. 一张图理解所有激活函数

python 复制代码
输入 → [隐藏层:ReLU] → [隐藏层:ReLU] → [输出层:Softmax] → 概率
  • 隐藏层:ReLU像"勤劳的工人",快速筛选有用特征。
  • 输出层:Softmax像"严谨的法官",给出最终判决。

6. 常见误区

(1) Softmax和Sigmoid都能做多分类?
  • Softmax :适合"单选"问题(如"图片是猫/狗/鸟?")。

    python 复制代码
    # 输出总和=1
    [0.9, 0.1, 0.0]  # 判定为猫
  • Sigmoid :适合"多选"问题(如"图片是否有猫、是否有狗?")。

    python 复制代码
    # 每个类别独立判断
    [0.9, 0.8, 0.1]  # 有猫、有狗、无鸟
(2) 为什么不用原始分数直接当概率?
  • 原始分数可能为负数(如猫: -2,狗: 3),无法直接解释为概率。
  • 分数范围不固定(有的评委打分010,有的打分-100100),Softmax能统一标准。

总结

  • 激活函数是神经网络的"调味料",让模型能解决复杂问题。
  • Softmax是"多分类裁判",把分数变成概率,保证公平和可解释性。
  • 记住
    • 隐藏层用 ReLU(高效)。
    • 多分类输出用 Softmax(单选)。
    • 多标签输出用 Sigmoid(多选)。

下次看到Softmax,就想想选秀节目的评委打分!

以下是使用Mermaid语法绘制的CNN结构框图,明确标注了隐藏层非隐藏层,并用不同样式区分:

框图说明

  1. 隐藏层(蓝色节点):

    • 所有带【】的层(卷积层、ReLU、池化层、全连接层)
    • 共同特点:内部特征变换,输出不直接暴露
  2. 非隐藏层(紫色/虚线节点):

    • 输入图像:原始数据入口
    • 展平层:无参数的固定操作
    • Softmax输出:最终预测结果
  3. 箭头方向

    • 表示数据流动方向(前向传播路径)

关键点强调

  • 虽然ReLU和池化层没有可训练参数,但因为它们是特征处理的关键环节,仍属于隐藏层
  • 展平层是结构转换层(多维→一维),不属于隐藏层
  • 输出层永远是非隐藏层(网络与外界交互的接口)

好的!我用更直观的方式解释 ReLU(Rectified Linear Unit),保证你彻底明白它的作用和"水管比喻"的含义。


1. ReLU是什么?

ReLU是最常用的激活函数之一,定义超级简单:

\\text{ReLU}(x) = \\max(0, x)

  • 输入:任意数值 ( x )(正数、负数、零)。
  • 输出
    • 如果 ( x > 0 ),输出 ( x )(原样通过)。
    • 如果 ( x \leq 0 ),输出 ( 0 )(直接归零)。

2. "水管比喻"详解

想象ReLU是一根有阀门的水管

  • 正数输入 (( x > 0 )):

    → 阀门打开,水流直接通过(输出=输入)。

  • 负数输入 (( x \leq 0 )):

    → 阀门关闭,水流被阻断(输出=0)。

为什么叫"负数流不走"?

因为负数输入会被ReLU直接置零,就像水管不让逆流的水通过一样!


3. 为什么要用ReLU?

(1) 解决梯度消失问题
  • 传统激活函数(如Sigmoid)的缺陷

    当输入很大或很小时,梯度接近0,导致深层网络无法更新参数("学不动")。

  • ReLU的优势

    • 正数区域梯度恒为1,反向传播时梯度不会衰减。
    • 让深层网络(如ResNet)训练成为可能。
(2) 计算速度快
  • Sigmoid/Tanh:需要计算指数,速度慢。
  • ReLU:只需比较和取最大值(硬件友好)。
(3) 稀疏激活
  • 负数输入直接输出0,相当于关闭部分神经元,让网络更高效。
  • 像大脑一样,只有部分神经元被激活(生物合理性)。

4. 实际例子

假设某神经元的输入加权和是:

x = 2.5 \\quad (\\text{正数}) \\quad \\Rightarrow \\text{ReLU}(2.5) = 2.5 \\ x = -1.3 \\quad (\\text{负数}) \\quad \\Rightarrow \\text{ReLU}(-1.3) = 0 \\

在神经网络中的效果

  • 如果某个特征(如"边缘")对任务无用,ReLU会将其输出置零,相当于忽略该特征。
  • 有用的特征(正数)则原样传递到下一层。

5. ReLU的局限性

  • 神经元死亡 :如果某神经元始终输出0(因输入总为负),它将永远无法更新参数。
    解决方法 :用 LeakyReLU(负数区给微小斜率,如0.01x)。

6. 对比其他激活函数

激活函数 输出范围 计算速度 梯度消失风险 适用场景
ReLU [0, +∞) ⚡️ 超快 隐藏层(默认首选)
Sigmoid (0, 1) 🐢 慢 输出层(二分类)
Tanh (-1, 1) 🐢 慢 隐藏层(RNN)
LeakyReLU (-∞, +∞) ⚡️ 快 替代ReLU

7. 一句话总结

ReLU就像一根"智能水管":

  • 正数→畅通无阻,负数→直接截断。
  • 它的简单、高效、防梯度消失,让它成为深度学习时代的"万金油"激活函数。

下次看到ReLU,就想想水管阀门------"正通负断"

你提到的这个问题是深度学习中的核心痛点------梯度消失(Vanishing Gradients)。下面我用最直观的方式解释为什么Sigmoid会有这个问题,而ReLU如何解决它。


1. Sigmoid函数的缺陷

(1) Sigmoid的形状

Sigmoid函数公式:

\\sigma(x) = \\frac{1}{1 + e\^{-x}}

它的图像是一条S形曲线,输出范围在(0,1):

(2) Sigmoid的导数

导数(梯度)公式:

\\sigma'(x) = \\sigma(x)(1 - \\sigma(x))

  • 当输入 ( x ) 的绝对值很大时(如 ( x=10 ) 或 ( x=-10 )):
    • ( \sigma(10) ≈ 1 ),导数 ( ≈1×(1-1)=0 )。
    • ( \sigma(-10) ≈ 0 ),导数 ( ≈0×(1-0)=0 )。
  • 关键问题:梯度在两端几乎为0!
(3) 梯度消失的连锁反应

假设一个5层网络,每层用Sigmoid:

  1. 如果某一层的梯度是0.1,反向传播到第一层时:
    ( 0.1 \times 0.1 \times 0.1 \times 0.1 \times 0.1 = 0.00001 )
    (梯度几乎消失,参数无法有效更新)。
  2. 结果:深层网络的前几层"学不动",性能停滞。

2. 为什么ReLU能解决这个问题?

(1) ReLU的导数

ReLU的导数超级简单:

\\text{ReLU}'(x) = \\begin{cases} 1 \& \\text{if } x \> 0 \\ 0 \& \\text{if } x \\leq 0 \\end{cases}

  • 正数区域:梯度恒为1,反向传播时梯度原样传递,不会衰减!
  • 负数区域:梯度为0(虽然也有"神经元死亡"风险,但实际中正数激活更常见)。
(2) 对比实验

假设同样5层网络,每层用ReLU:

  • 如果某层梯度是0.1,但其他层梯度为1(因ReLU的正数区):
    ( 0.1 \times 1 \times 1 \times 1 \times 1 = 0.1 )
    (梯度能有效传递到前几层)。
(3) 直观比喻
  • Sigmoid:像一条狭窄的山路,越往后走信号越弱(梯度衰减)。
  • ReLU:像高速公路,正数区域是直行道(梯度直达),负数区域是断路(截断)。

3. 数学例子对比

Sigmoid的梯度消失

假设输入 ( x=10 ):

  • Sigmoid输出:( \sigma(10) ≈ 0.999 )
  • 梯度:( 0.999 \times (1-0.999) ≈ 0.001 )(几乎为0)。
ReLU的梯度保持

假设输入 ( x=10 ):

  • ReLU输出:( 10 )
  • 梯度:( 1 )(完全保留)。

4. 为什么Sigmoid梯度会消失?

  • 饱和区:当Sigmoid输入很大/很小时,函数曲线变得极其平缓(导数接近0)。

  • 链式法则的灾难:深度学习依赖梯度反向传播,连续多层小梯度相乘会指数级减小。


5. ReLU的局限性补充

虽然ReLU解决了梯度消失,但也有缺点:

  • 神经元死亡 :如果某神经元因输入始终为负,输出恒为0,梯度永远无法更新它。
    改进方案
    • LeakyReLU :负数区给微小斜率(如0.01x),避免完全死亡。

      \\text{LeakyReLU}(x) = \\max(0.01x, x)


总结

  • Sigmoid的问题:梯度在两端饱和→反向传播时连乘导致梯度消失→深层网络无法训练。
  • ReLU的救场:正数区梯度=1,保持梯度强度→支持深层网络(如ResNet有1000+层)。

简单说:Sigmoid像老式收音机信号弱,ReLU像5G信号全覆盖!

1. 什么是反向传播?

**反向传播(Backpropagation)**是神经网络训练的核心算法,用于计算每个参数(权重和偏置)对最终误差的"贡献程度"(即梯度),从而指导参数更新。它的工作流程如下:


(1) 前向传播(Forward Pass)
  • 输入数据 通过网络层层计算,得到预测输出。
    例如:输入一张猫的图片 → 经过卷积、激活函数等操作 → 输出"猫:70%,狗:30%"。
(2) 计算误差(Loss)
  • 比较预测输出和真实标签的差异(如交叉熵损失)。
    例如:真实标签是"猫",误差 = -log(0.7) ≈ 0.36。
(3) 反向传播(Backward Pass)
  • 从输出层向输入层逐层传递误差,利用链式法则计算每个参数的梯度。
  • 梯度 表示"参数微小变化时,误差的变化率"。
    例如:某个权重 ( w ) 的梯度 = 0.05,表示增大 ( w ) 会使误差增加 0.05。
(4) 参数更新
  • 用梯度下降法调整参数:

    w \\leftarrow w - \\text{学习率} \\times \\text{梯度}

    例如:学习率=0.01,则 ( w ) 更新为 ( w - 0.01 \times 0.05 )。

2. 为什么需要反向传播?

  • 手动计算不可行:深层网络可能有数百万个参数,手动求导效率极低。
  • 高效分配误差:反向传播能自动确定"谁该为误差负责",并将误差公平地分摊给各层参数。
  • 动态调整:通过梯度指导参数更新,让网络逐步改进预测。

3. "链式法则的灾难"详解

(1) 链式法则是什么?

反向传播的核心是链式法则 (复合函数求导法则):

若 ( y = f(g(x)) ),则 ( \frac{dy}{dx} = \frac{dy}{dg} \cdot \frac{dg}{dx} )。

(2) 在神经网络中的应用

假设一个3层网络,最终误差 ( L ) 对第一层权重 ( w_1 ) 的梯度为:

\\frac{\\partial L}{\\partial w_1} = \\frac{\\partial L}{\\partial z_3} \\cdot \\frac{\\partial z_3}{\\partial z_2} \\cdot \\frac{\\partial z_2}{\\partial z_1} \\cdot \\frac{\\partial z_1}{\\partial w_1}

其中 ( z_i ) 是第 ( i ) 层的输出。

(3) 梯度消失的数学原因

如果每一层的梯度 ( \frac{\partial z_{i+1}}{\partial z_i} ) 很小(如Sigmoid的梯度最大仅0.25),多层连乘后会指数级减小:

0.25 \\times 0.25 \\times 0.25 = 0.015625

  • 结果:第一层的梯度接近0,参数几乎不更新,网络无法学习底层特征。
(4) ReLU如何解决?

ReLU在正数区的梯度恒为1,连乘时不会衰减:

1 \\times 1 \\times 1 = 1


4. 生活化比喻

(1) 反向传播:公司问责制
  • 前向传播:员工(神经元)逐层处理任务,最终提交报告(预测)。
  • 误差发现:老板发现报告有误(损失函数)。
  • 反向追责:从高层到底层逐级问责(反向传播),找出谁该扣奖金(梯度)。
  • 改进:员工根据问责结果调整工作方式(参数更新)。
(2) 链式法则的灾难:传话游戏
  • 10个人排成一列传话,每人传话时声音减小一半(Sigmoid的小梯度)。
  • 最后一人听到的内容 ≈ 初始内容的 ( \frac{1}{1024} )(信息消失)。
  • ReLU版传话:正数内容原样传递(梯度=1),负数内容不传(梯度=0)。

5. 总结

  • 反向传播:是神经网络高效计算梯度的算法,通过链式法则实现误差的逐层分配。
  • 梯度消失:当激活函数(如Sigmoid)的梯度连续多层连乘时,梯度指数级减小,导致深层网络无法训练。
  • ReLU的救场:正数区梯度=1,避免连乘衰减,支持深层网络训练。

一句话:反向传播是神经网络的"学习引擎",而ReLU是让这个引擎在深层网络中不熄火的关键设计! 🔥

1. 例子回顾

假设一个5层神经网络,每层使用Sigmoid激活函数。在反向传播时:

  • 每一层的梯度为 0.1(因Sigmoid的梯度较小)。
  • 传播到第一层的总梯度:

    0.1 \\times 0.1 \\times 0.1 \\times 0.1 \\times 0.1 = 0.00001

    这意味着第一层的参数几乎无法更新。

2. 参数更新过程分析

(1) 网络结构

假设每层只有一个神经元,权重为 ( w_1, w_2, \dots, w_5 ),输入为 ( x ),预测输出为 ( \hat{y} ),真实标签为 ( y )。

(2) 前向传播

每层的计算(以第1层为例):

z_1 = w_1 \\cdot x, \\quad a_1 = \\sigma(z_1)

最终输出:

\\hat{y} = a_5 = \\sigma(w_5 \\cdot a_4)

(3) 损失函数

用均方误差(MSE):

L = \\frac{1}{2} (y - \\hat{y})\^2

(4) 反向传播(链式法则)
  • 第5层权重的梯度

    \\frac{\\partial L}{\\partial w_5} = \\frac{\\partial L}{\\partial \\hat{y}} \\cdot \\frac{\\partial \\hat{y}}{\\partial z_5} \\cdot \\frac{\\partial z_5}{\\partial w_5}

    其中:

    • ( \frac{\partial L}{\partial \hat{y}} = - (y - \hat{y}) )(误差项)
    • ( \frac{\partial \hat{y}}{\partial z_5} = \sigma'(z_5) = \sigma(z_5)(1 - \sigma(z_5)) )(Sigmoid导数)
    • ( \frac{\partial z_5}{\partial w_5} = a_4 )(上一层的输出)

    假设 ( \sigma'(z_5) = 0.1 ),则:

    \\frac{\\partial L}{\\partial w_5} = - (y - \\hat{y}) \\times 0.1 \\times a_4

  • 第1层权重的梯度

    \\frac{\\partial L}{\\partial w_1} = \\frac{\\partial L}{\\partial \\hat{y}} \\cdot \\frac{\\partial \\hat{y}}{\\partial z_5} \\cdot \\frac{\\partial z_5}{\\partial a_4} \\cdot \\frac{\\partial a_4}{\\partial z_4} \\cdot \\frac{\\partial z_4}{\\partial a_3} \\cdot \\frac{\\partial a_3}{\\partial z_3} \\cdot \\frac{\\partial z_3}{\\partial a_2} \\cdot \\frac{\\partial a_2}{\\partial z_2} \\cdot \\frac{\\partial z_2}{\\partial a_1} \\cdot \\frac{\\partial a_1}{\\partial z_1} \\cdot \\frac{\\partial z_1}{\\partial w_1}

    由于每层Sigmoid的导数 ( \sigma'(z_i) = 0.1 ),且其他项(如 ( \frac{\partial z_i}{\partial a_{i-1}} = w_i ))假设为1:

    \\frac{\\partial L}{\\partial w_1} = - (y - \\hat{y}) \\times 0.1 \\times 0.1 \\times 0.1 \\times 0.1 \\times 0.1 \\times x

    最终:

    \\frac{\\partial L}{\\partial w_1} \\approx \\text{误差项} \\times 0.00001 \\times x

(5) 参数更新
  • 梯度下降更新规则:

    w_1 \\leftarrow w_1 - \\eta \\cdot \\frac{\\partial L}{\\partial w_1}

    其中 ( \eta ) 是学习率(如0.01)。
    由于 ( \frac{\partial L}{\partial w_1} ) 极小(0.00001量级),( w_1 ) 几乎不变。

3. 链式法则的灾难

(1) 根本原因
  • Sigmoid导数的上限 :( \sigma'(x) \leq 0.25 )(当 ( x=0 ) 时最大)。
    实际中,由于输入 ( x ) 的绝对值通常较大,导数更小(如0.1)。
  • 多层连乘:梯度是各层导数的乘积,导致指数级衰减。
(2) 数学表达

若每层梯度为 ( \alpha )(( \alpha \ll 1 )),则第 ( k ) 层的梯度:

\\frac{\\partial L}{\\partial w_k} \\propto \\alpha\^k

  • 当 ( k=5 ),( \alpha^5 = 0.00001 )(几乎消失)。
(3) 后果
  • 浅层参数不更新:网络只能学习最后几层的特征,无法利用深层结构的优势。
  • 性能瓶颈:模型表现类似浅层网络,无法解决复杂任务。

4. ReLU的对比

(1) ReLU的梯度

\\text{ReLU}'(x) = \\begin{cases} 1 \& \\text{if } x \> 0 \\ 0 \& \\text{if } x \\leq 0 \\end{cases}

  • 正数区 :梯度=1,连乘时不会衰减。

    1 \\times 1 \\times 1 \\times 1 \\times 1 = 1

  • 效果:浅层参数能获得有效梯度,支持深层网络训练。
(2) 参数更新对比
  • Sigmoid
    ( \frac{\partial L}{\partial w_1} \approx 0.00001 ) → 更新量微乎其微。
  • ReLU
    ( \frac{\partial L}{\partial w_1} \approx \text{误差项} \times 1 \times x ) → 正常更新。

5. 直观图示

(1) Sigmoid的梯度消失
复制代码
输入 → [Sigmoid (梯度=0.1)] → [Sigmoid (梯度=0.1)] → ... → 输出
反向传播时:梯度 = 0.1 × 0.1 × ... → 0.00001
(2) ReLU的梯度保留
复制代码
输入 → [ReLU (梯度=1)] → [ReLU (梯度=1)] → ... → 输出
反向传播时:梯度 = 1 × 1 × ... → 1

6. 总结

  • 反向传播:通过链式法则计算梯度,指导参数更新。
  • Sigmoid的问题:梯度连乘导致指数衰减,浅层参数无法学习。
  • ReLU的优势:正数区梯度=1,避免衰减,支持深层网络训练。

关键结论

激活函数的选择直接影响梯度传播的效率,进而决定神经网络能否发挥深度优势!

为什么多标签分类用Sigmoid而不是Softmax?

多标签分类任务中,一个样本可以同时属于多个类别(比如一张图片包含"猫"和"狗"),而Softmax的设计逻辑是**"单选"**(所有类别互斥,概率和为1),因此不适用。以下是详细解释:


1. Softmax的"单选"特性

  • 输出特点 :所有类别的概率之和为1,且彼此竞争。
    例如
    [猫: 0.9, 狗: 0.1, 鸟: 0.0] → 模型认为"只能是猫,不可能是其他"。
  • 问题:如果图片中有猫和狗,Softmax会强制压制"狗"的概率,导致错误。

2. Sigmoid的"多选"特性

  • 输出特点 :每个类别独立判断,概率范围[0,1],且不要求总和为1
    例如
    [猫: 0.9, 狗: 0.8, 鸟: 0.1] → 可同时预测"有猫"和"有狗"。
  • 数学形式

    P(\\text{class}_i) = \\frac{1}{1 + e\^{-z_i}}

    每个类别的概率仅依赖自身的logit ( z_i ),与其他类别无关。

3. 直观例子对比

任务:预测图片中的动物(猫、狗、鸟)
  • 多标签(用Sigmoid)
    • 输出 [猫: 0.9, 狗: 0.7, 鸟: 0.05] → 正确识别"猫+狗"。
  • 多分类(用Softmax)
    • 输出 [猫: 0.6, 狗: 0.3, 鸟: 0.1] → 强制忽略"狗"的存在。

4. 反向传播的差异

  • Sigmoid
    每个类别的梯度独立计算,互不干扰。
    • 猫的梯度只与猫的logit相关,不影响狗或鸟的梯度。
  • Softmax
    所有类别的梯度相互耦合(因分母是所有类别的指数和)。
    • 调整猫的logit会直接影响狗和鸟的概率。

5. 实际场景应用

适合Sigmoid的任务
  • 医学诊断:同时预测"肺炎+结核病"。
  • 图像标注:识别"阳光+沙滩+海浪"。
  • 文本分类:文章包含"科技+娱乐"标签。
适合Softmax的任务
  • MNIST手写数字:图片只能是"0"到"9"中的一个。
  • ImageNet分类:图片属于1000个互斥类别之一。

6. 代码示例(PyTorch)

python 复制代码
import torch
import torch.nn as nn

# 多标签分类(Sigmoid)
model = nn.Linear(input_dim, num_classes)  # 输出层无激活函数
criterion = nn.BCEWithLogitsLoss()        # 二分类交叉熵(内置Sigmoid)

# 多分类(Softmax)
model = nn.Sequential(
    nn.Linear(input_dim, num_classes),
    nn.Softmax(dim=1)                     # 显式Softmax
criterion = nn.CrossEntropyLoss()         # 交叉熵(内置LogSoftmax)

7. 常见误区

  • 误区 :"用Softmax+阈值拆分可以模拟多标签"。
    问题:Softmax的概率受其他类别压制,阈值拆分会导致漏检(如"狗"因概率被压低而无法触发)。
  • 正确做法:对每个类别独立用Sigmoid,根据阈值(如0.5)判断是否属于该类。

总结

  • Sigmoid:允许多个类别共存,适合"多选"任务。
  • Softmax:强制单选,适合"互斥分类"任务。
  • 核心区别:是否要求类别间概率竞争。

一句话

  • 问"这是什么?" → 用Softmax(答案唯一)。
  • 问"哪些存在?" → 用Sigmoid(答案可多选)。
相关推荐
Jamence8 分钟前
多模态大语言模型arxiv论文略读(二十一)
人工智能·语言模型·自然语言处理
小白学C++.10 分钟前
大模型论文:Language Models are Unsupervised Multitask Learners(GPT2)
人工智能·语言模型·自然语言处理
Steve lu15 分钟前
PyTorch逻辑回归总结
人工智能·pytorch·python·深度学习·逻辑回归·原力计划
Steve lu22 分钟前
pytorch实现逻辑回归
人工智能·pytorch·python·深度学习·机器学习·自然语言处理·逻辑回归
xcSpark42 分钟前
Python基础入门(二)
开发语言·人工智能·python
驼驼学编程1 小时前
目标检测与分割:深度学习在视觉中的应用
人工智能·深度学习·目标检测·计算机视觉
行走的bug...1 小时前
sklearn估计器和变换器共有的一些方法 待更新
人工智能·算法·sklearn
LemonDu1 小时前
Cursor入门教程-JetBrains过度向
人工智能·后端
程序员小灰2 小时前
漫画:什么是MCP协议?
人工智能·aigc·mcp
奋斗者1号2 小时前
深入解析 sklearn 中的 LabelEncoder:功能、使用场景与注意事项
人工智能·python·sklearn