深度学习|表示学习|Instance Normalization 全面总结|26

如是我闻:

1. Instance Normalization(IN)

Instance Normalization(IN)最早由 Ulyanov et al.(2017) 提出,主要用于 风格迁移(Style Transfer) 任务。它的核心思想是 对每个样本的每个通道 ( C ) (C) (C) 单独计算均值和方差,然后进行归一化。

与 Batch Normalization(BN)不同,IN 不依赖 mini-batch 统计信息,所以更适用于小 batch size 甚至 batch size = 1 的情况。

数学公式

对于一个输入特征 x t i l m x_{tilm} xtilm,其中:

  • t t t 表示 batch 维度(样本索引)
  • i i i 表示通道索引(C)
  • l , m l, m l,m 分别表示特征图的空间坐标 H × W H × W H×W
均值计算

μ t i = 1 H W ∑ l = 1 W ∑ m = 1 H x t i l m \mu_{ti} = \frac{1}{HW} \sum_{l=1}^{W} \sum_{m=1}^{H} x_{tilm} μti=HW1l=1∑Wm=1∑Hxtilm

方差计算

σ t i 2 = 1 H W ∑ l = 1 W ∑ m = 1 H ( x t i l m − μ t i ) 2 \sigma^2_{ti} = \frac{1}{HW} \sum_{l=1}^{W} \sum_{m=1}^{H} (x_{tilm} - \mu_{ti})^2 σti2=HW1l=1∑Wm=1∑H(xtilm−μti)2

归一化

y t i l m = x t i l m − μ t i σ t i 2 + ϵ y_{tilm} = \frac{x_{tilm} - \mu_{ti}}{\sqrt{\sigma^2_{ti} + \epsilon}} ytilm=σti2+ϵ xtilm−μti

💡 计算范围:

Instance Normalization 只在 单个样本的单个通道 (H×W 维度) 内计算均值和方差,而不会跨通道或跨样本计算。


2. Layer Normalization(LN)

概念

Layer Normalization(LN)由 Ba et al.(2016) 提出,最初用于 RNN 和 Transformer 结构 ,后来也在 CNN 中被广泛使用。它的核心思想是 对整个样本的所有通道 (C×H×W) 计算均值和方差,然后进行归一化。

不同于 Batch Normalization(BN),LN 不依赖 batch 维度 ,适用于 NLP 和 Transformer 任务 ,特别是在 batch size 变化较大的情况下,仍能保持稳定的效果。

数学公式

对于一个输入特征 x i j k l x_{ijkl} xijkl,其中:

  • i i i 表示 batch 维度(样本索引)
  • j j j 表示通道索引( C C C)
  • k , l k, l k,l 分别表示特征图的空间坐标( H × W H × W H×W)
均值计算

μ l = 1 C H W ∑ j = 1 C ∑ k = 1 H ∑ l = 1 W x i j k l \mu^l = \frac{1}{CHW} \sum_{j=1}^{C} \sum_{k=1}^{H} \sum_{l=1}^{W} x_{ijkl} μl=CHW1j=1∑Ck=1∑Hl=1∑Wxijkl

方差计算

σ l 2 = 1 C H W ∑ j = 1 C ∑ k = 1 H ∑ l = 1 W ( x i j k l − μ l ) 2 \sigma^2_l = \frac{1}{CHW} \sum_{j=1}^{C} \sum_{k=1}^{H} \sum_{l=1}^{W} (x_{ijkl} - \mu^l)^2 σl2=CHW1j=1∑Ck=1∑Hl=1∑W(xijkl−μl)2

归一化

y i j k l = x i j k l − μ l σ l 2 + ϵ y_{ijkl} = \frac{x_{ijkl} - \mu^l}{\sqrt{\sigma^2_l + \epsilon}} yijkl=σl2+ϵ xijkl−μl

💡 计算范围:

Layer Normalization 在整个样本的所有通道 (C×H×W) 维度上计算均值和方差,不同通道之间的归一化统计量是共享的。


3. 计算示例

假设我们有一个输入 特征图大小为 2 × 2 2 \times 2 2×2 ,batch size 为 1,通道数 C = 2,即:
X = [ Channel 1 : [ 1 2 3 4 ] , Channel 2 : [ 5 6 7 8 ] ] X = \begin{bmatrix} \text{Channel 1}: & \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix}, \quad \text{Channel 2}: & \begin{bmatrix} 5 & 6 \\ 7 & 8 \end{bmatrix} \end{bmatrix} X=[Channel 1:[1324],Channel 2:[5768]]

Instance Normalization

IN 对 每个通道 ( C C C) 独立归一化,计算均值和方差:

  • Channel 1 均值:
    μ 1 = 1 + 2 + 3 + 4 4 = 2.5 \mu_1 = \frac{1+2+3+4}{4} = 2.5 μ1=41+2+3+4=2.5

    方差:
    σ 1 2 = ( 1 − 2.5 ) 2 + ( 2 − 2.5 ) 2 + ( 3 − 2.5 ) 2 + ( 4 − 2.5 ) 2 4 = 1.25 \sigma_1^2 = \frac{(1-2.5)^2 + (2-2.5)^2 + (3-2.5)^2 + (4-2.5)^2}{4} = 1.25 σ12=4(1−2.5)2+(2−2.5)2+(3−2.5)2+(4−2.5)2=1.25

    归一化:
    Y 1 = X 1 − 2.5 1.25 + ϵ Y_1 = \frac{X_1 - 2.5}{\sqrt{1.25 + \epsilon}} Y1=1.25+ϵ X1−2.5

  • Channel 2 均值:
    μ 2 = 5 + 6 + 7 + 8 4 = 6.5 \mu_2 = \frac{5+6+7+8}{4} = 6.5 μ2=45+6+7+8=6.5

    归一化后:
    Y 2 = X 2 − 6.5 1.25 + ϵ Y_2 = \frac{X_2 - 6.5}{\sqrt{1.25 + \epsilon}} Y2=1.25+ϵ X2−6.5


Layer Normalization

LN 对 整个样本的所有通道 (C×H×W) 归一化,计算:

  • 总均值:
    μ = 1 + 2 + 3 + 4 + 5 + 6 + 7 + 8 8 = 4.5 \mu = \frac{1+2+3+4+5+6+7+8}{8} = 4.5 μ=81+2+3+4+5+6+7+8=4.5
  • 总方差:
    σ 2 = ( 1 − 4.5 ) 2 + ⋯ + ( 8 − 4.5 ) 2 8 = 5.25 \sigma^2 = \frac{(1-4.5)^2 + \dots + (8-4.5)^2}{8} = 5.25 σ2=8(1−4.5)2+⋯+(8−4.5)2=5.25
  • 归一化:
    Y = X − 4.5 5.25 + ϵ Y = \frac{X - 4.5}{\sqrt{5.25 + \epsilon}} Y=5.25+ϵ X−4.5

4. 主要区别

归一化方法 计算均值/方差的范围 归一化的单位 适用场景
Instance Normalization (IN) 每个通道 (H×W) 计算均值和方差 每个通道独立归一化 风格迁移、GAN、计算机视觉任务
Layer Normalization (LN) 整个样本 (C×H×W) 计算均值和方差 所有通道一起归一化 NLP、Transformer、RNN/CNN 任务

5. 总结

  • IN 适用于图像任务(如风格迁移),可以帮助去除特定风格信息。
  • LN 适用于 NLP 和 CNN 任务,因为它不会受到 batch size 影响,在 Transformer 和 RNN 里表现更稳定。

希望这篇文章能帮助你理解 Instance Normalization 和 Layer Normalization 的核心概念及其不同应用!🎯

相关推荐
.Net Core 爱好者5 分钟前
基于Flask搭建AI应用,本地私有化部署开源大语言模型
人工智能·后端·python·语言模型·自然语言处理·flask
思茂信息18 分钟前
CST的TLM算法仿真5G毫米波阵列天线及手机
网络·人工智能·5g·智能手机·软件工程·软件构建
Allen-Steven1 小时前
《Stable Diffusion绘画完全指南:从入门到精通的Prompt设计艺术》 第一章
人工智能·stable diffusion·prompt
qq_515507501 小时前
jupyter notebook中3种读图片的方法_与_图片翻转(上下翻转,左右翻转,上下左右翻转)
人工智能·python·jupyter·numpy
嗷嗷哦润橘_2 小时前
Deepseek系列从v3到R易背面经版
开发语言·人工智能·笔记·deepseek
霜雪殇璃2 小时前
(定时器,绘制事件,qt简单服务器的搭建)2025.2.11
运维·服务器·qt·学习
一个机器视觉工程师的自我修养2 小时前
Halcon.Net与Numpy、OpenCV联合编程
人工智能·opencv·numpy
AndrewHZ2 小时前
DeepSeek-R1技术革命:用强化学习重塑大语言模型的推理能力
人工智能·python·深度学习·算法·语言模型
美狐美颜sdk3 小时前
美颜SDK架构设计指南:性能优化与跨平台适配实战
人工智能·深度学习·性能优化·美颜sdk·视频美颜sdk