神经网络系列---池化


文章目录


池化

最大池化

最大池化(Max Pooling)是卷积神经网络中常用的一种池化技术。其操作是:在输入特征图的一个局部窗口内选取最大的值作为该窗口的输出。

数学表达式如下:

考虑一个输入特征图 A A A,并定义一个大小为 f × f f \times f f×f 的池化窗口和步长 s s s。对于输出特征图 M M M 中的元素 M ( i , j ) M(i,j) M(i,j),其值由以下公式确定:

M ( i , j ) = max ⁡ u = 0 f − 1 max ⁡ v = 0 f − 1 A ( i × s + u , j × s + v ) M(i,j) = \max_{u=0}^{f-1} \max_{v=0}^{f-1} A(i \times s + u, j \times s + v) M(i,j)=maxu=0f−1maxv=0f−1A(i×s+u,j×s+v)

其中:

  • M ( i , j ) M(i,j) M(i,j) 是输出特征图的第 ( i , j ) (i,j) (i,j) 个元素。
  • max ⁡ \max max 表示最大值操作。
  • u u u 和 v v v 都是在 [ 0 , f − 1 ] [0, f-1] [0,f−1] 范围内变化的索引,它们用于遍历池化窗口内的每一个元素。
  • s s s 是步长,定义了池化窗口在输入特征图上移动的距离。
  • A ( i × s + u , j × s + v ) A(i \times s + u, j \times s + v) A(i×s+u,j×s+v) 是输入特征图 A A A 中与输出特征图 M ( i , j ) M(i,j) M(i,j) 对应的局部窗口的元素。

这个公式简单地描述了最大池化的操作:对于每个输出元素 M ( i , j ) M(i,j) M(i,j),都在输入特征图 A A A 的相应局部窗口中找到最大的值。

cpp 复制代码
//最大池化
Eigen::MatrixXf Pooling::maxPoolingForward(const Eigen::MatrixXf& input,int m_poolSize,int m_stride)
{
    int outputHeight = (input.rows() - m_poolSize) / m_stride + 1;
    int outputWidth = (input.cols() - m_poolSize) / m_stride + 1;

    Eigen::MatrixXf output(outputHeight, outputWidth);

    for (int i = 0; i < outputHeight; ++i)
    {
        for (int j = 0; j < outputWidth; ++j)
        {
            output(i, j) = input.block(i * m_stride, j * m_stride, m_poolSize, m_poolSize).maxCoeff();
        }
    }

    return output;
}
//最大池化 反向
Eigen::MatrixXf Pooling::maxPoolingBackward(const Eigen::MatrixXf& input, const Eigen::MatrixXf& gradient,int m_poolSize,int m_stride)
{
    Eigen::MatrixXf output = Eigen::MatrixXf::Zero(input.rows(), input.cols());

    int outputHeight = gradient.rows();
    int outputWidth = gradient.cols();

    for (int i = 0; i < outputHeight; ++i)
    {
        for (int j = 0; j < outputWidth; ++j)
        {
            int row,col;
            input.block(i * m_stride, j * m_stride, m_poolSize, m_poolSize).maxCoeff(&row,&col);
            output(i * m_stride + row, j * m_stride + col) += gradient(i, j);

        }
    }

    return output;
}

平均池化

平均池化(Average Pooling)是卷积神经网络中另一种常用的池化技术。其操作是在输入特征图的一个局部窗口内计算所有值的平均值,然后将此平均值作为该窗口的输出。

数学表达式如下:

考虑一个输入特征图 A A A,并定义一个大小为 f × f f \times f f×f 的池化窗口和步长 s s s。对于输出特征图 M M M 中的元素 M ( i , j ) M(i,j) M(i,j),其值由以下公式确定:

M ( i , j ) = 1 f × f ∑ u = 0 f − 1 ∑ v = 0 f − 1 A ( i × s + u , j × s + v ) M(i,j) = \frac{1}{f \times f} \sum_{u=0}^{f-1} \sum_{v=0}^{f-1} A(i \times s + u, j \times s + v) M(i,j)=f×f1∑u=0f−1∑v=0f−1A(i×s+u,j×s+v)

其中:

  • M ( i , j ) M(i,j) M(i,j) 是输出特征图的第 ( i , j ) (i,j) (i,j) 个元素。
  • ∑ \sum ∑ 表示求和操作。
  • u u u 和 v v v 都是在 [ 0 , f − 1 ] [0, f-1] [0,f−1] 范围内变化的索引,它们用于遍历池化窗口内的每一个元素。
  • s s s 是步长,定义了池化窗口在输入特征图上移动的距离。
  • A ( i × s + u , j × s + v ) A(i \times s + u, j \times s + v) A(i×s+u,j×s+v) 是输入特征图 A A A 中与输出特征图 M ( i , j ) M(i,j) M(i,j) 对应的局部窗口的元素。
  • f × f f \times f f×f 是池化窗口的大小。

这个公式描述了平均池化的操作:对于每个输出元素 M ( i , j ) M(i,j) M(i,j),都在输入特征图 A A A 的相应局部窗口中计算所有值的平均值。

cpp 复制代码
//平均池化
Eigen::MatrixXf Pooling::averagePoolingForward(const Eigen::MatrixXf& input,int m_poolSize,int m_stride)
{
    int outputHeight = (input.rows() - m_poolSize) / m_stride + 1;
    int outputWidth = (input.cols() - m_poolSize) / m_stride + 1;

    Eigen::MatrixXf output(outputHeight, outputWidth);

    for (int i = 0; i < outputHeight; ++i)
    {
        for (int j = 0; j < outputWidth; ++j)
        {
            output(i, j) = input.block(i * m_stride, j * m_stride, m_poolSize, m_poolSize).mean();
        }
    }

    return output;
}

// 反向传播对于平均池化比较简单,因为只需要分摊输入梯度到相应的位置。
Eigen::MatrixXf Pooling::averagePoolingBackward(const Eigen::MatrixXf& input,const Eigen::MatrixXf& gradient,int m_poolSize,int m_stride)
{
    Eigen::MatrixXf output = Eigen::MatrixXf::Zero(input.rows(), input.cols());

    int inputHeight = gradient.rows();
    int inputWidth = gradient.cols();

    for (int i = 0; i < inputHeight; ++i)
    {
        for (int j = 0; j < inputWidth; ++j)
        {
            output.block(i * m_stride, j * m_stride, m_poolSize, m_poolSize).array() += gradient(i, j) / (m_poolSize * m_poolSize);
        }
    }

    return output;
}
相关推荐
程序员ken1 小时前
深入理解大语言模型(8) 使用 LangChain 开发应用程序之上下文记忆
人工智能·python·语言模型·langchain
盼小辉丶1 小时前
Transformer实战——微调多语言Transformer模型
深度学习·语言模型·transformer
Tadas-Gao1 小时前
深度学习与机器学习的知识路径:从必要基石到独立范式
人工智能·深度学习·机器学习·架构·大模型·llm
TTGGGFF1 小时前
从“千问送奶茶”看AI Agent落地:火爆、崩塌与进化方向
人工智能
OPEN-Source1 小时前
大模型实战:把自定义 Agent 封装成一个 HTTP 服务
人工智能·agent·deepseek
不懒不懒1 小时前
【从零开始:PyTorch实现MNIST手写数字识别全流程解析】
人工智能·pytorch·python
zhangshuang-peta2 小时前
从REST到MCP:为何及如何为AI代理升级API
人工智能·ai agent·mcp·peta
helloworld也报错?2 小时前
基于CrewAI创建一个简单的智能体
人工智能·python·vllm
机器学习之心2 小时前
基于GRU门控循环单元的轴承剩余寿命预测MATLAB实现
深度学习·matlab·gru·轴承剩余寿命预测
wukangjupingbb2 小时前
Gemini 3和GPT-5.1在多模态处理上的对比
人工智能·gpt·机器学习