DELTA: DEGRADATION-FREE FULLY TEST-TIME ADAPTATION--论文笔记

论文笔记

资料

1.代码地址

2.论文地址

https://arxiv.org/abs/2301.13018

3.数据集地址

https://github.com/bwbwzhao/DELTA

论文摘要的翻译

完全测试时间自适应旨在使预训练模型在实时推理过程中适应测试数据流,当测试数据分布与训练数据分布不同时,这种方法很有效。为提高适应性能作出了若干努力。然而,我们发现,在一些刘硎的的自适应方法中,如测试时批量归一化(BN)和自学习,隐藏了两个不利的缺陷。首先,我们指明了测试时间BN中的归一化统计量完全受当前接收的测试样本的影响,会导致不准确的估计。其次,我们证明了在测试时间自适应过程中,参数更新偏向于一些优势类。除了广泛研究的具有独立和类平衡样本的测试流之外,我们还观察到,在更复杂的测试环境中,例如(时间)相关或类不平衡的数据,缺陷可能会加剧。我们观察到,以前的方法在某些情况下运行良好,而在其他情况下由于其故障而导致性能下降。在本文中,我们提供了一种称为DELTA插件式的解决方案,用于Degradation-freE测试时间自适应,它由两个部分组成:(i)测试时间批量重归一化(TBR),用于改进估计的归一化统计信息。(ii)动态在线重新加权(DOT),旨在解决优化中的类别偏差。我们在三个常用的四种场景的数据集和一个新引入的真实世界数据集上研究了各种测试时间自适应方法。DELTA可以帮助他们同时处理所有场景,从而提高SOTA的性能。

1背景

尽管取得了进展,但我们发现,在流行的方法中隐藏着不可忽视的缺陷。首先,我们仔细研究推理中的归一化统计数据(第3.2节)。我们观察到,与实际的统计数据相比,BN自适应中使用的统计数据在每批中是不准确的。其次,我们揭示了普遍的测试时间模型更新偏向于一些主要类别(第3.3节)。我们注意到,在分布外的数据上,模型预测极不平衡,基于自学习的自适应方法可能会加剧这种情况。除了现有研究中考虑的最常见的独立和类平衡测试样本外,我们调查了图1所示的其他三种测试场景(请参见第3.1节中的详细信息),并发现当面对更复杂的测试流,如依赖样本或类不平衡数据时,流行的方法将遭受严重的性能退化,这限制了这些测试时间自适应策略的有用性。

  • IS+CB (Independent Sampling + Class-Balanced):
    测试流是从类别平衡的测试分布中独立采样得到的。这意味着每个类别的样本在测试集中出现的概率是相同的,并且每个样本的抽取是相互独立的。
  • DS+CB (Dependent Sampling + Class-Balanced)
    测试流是从类别平衡的测试分布中依赖采样得到的。这可能意味着某些类别的样本在测试集中出现的概率较高,或者样本之间存在某种依赖关系。
  • IS+CI (Independent Sampling + Class-Imbalanced)
    测试流是从类别不平衡的测试分布中独立采样得到的。这种情况下,某些类别的样本数量可能会远远多于其他类别。
  • DS+CI (Dependent Sampling + Class-Imbalanced)
    测试流是从类别不平衡的测试分布中依赖采样得到的。这可能导致测试集中某些类别的样本非常集中,而其他类别的样本则很少。

为了解决上述问题,我们提出了两个强大的工具。具体来说,为了处理不准确的归一化统计,我们引入了测试时间批量重整化(TBR)(第3.2节),它使用测试时间移动平均统计来校正归一化特征,并在梯度优化过程中考虑归一化。通过利用观察到的测试样本,校准的归一化更加准确。我们进一步提出了动态在线重新加权(DOT)(第3.3节)来解决偏差优化,这是从成本敏感学习中得出的。为了平衡适应,DOT将低/高权重分配给频繁/不频繁类别。权重映射函数基于动量更新的类频率向量,该向量考虑了类别偏差的多个来源,包括预训练的模型、测试流和自适应方法(这些方法通常对某些类没有固有的偏差,但可以强调现有的偏差)。TBR可以直接应用于常见的基于BN的预训练模型,并且不会干扰训练过程(对应于完全测试时间的自适应设置),并且DOT也可以很容易地与其他自适应方法相结合。

表1将我们的方法与CIFAR100-C的其他方法在各种场景下进行了比较。现有的测试时间自适应方法在四种场景中表现不同,在某些场景中表现出性能下降。而我们的工具在没有任何测试数据先验知识的情况下同时在所有四种场景中都表现良好,这对现实世界的应用程序很重要。因此,整个方法被命名为DELTA(降级频率-频率-测试时间自适应)

类别不平衡学习。利用类别不平衡数据进行训练引起了广泛关注。Cost-sensitive learning和resampling是处理这一问题的经典策略。Ren等人(2018)设计了一种元学习范式,为样本分配权重。类平衡损失在执行重新加权时使用有效样本数。解耦训练分别学习特征提取器和分类器。Menon等人(2021)从统计学角度提出logit调整。其他技术,如权重平衡、对比学习、知识蒸馏等也被应用于解决这一问题。

2论文的创新点

  • 指明了常用的测试时间自适应方法的缺陷,这些缺陷最终损害了自适应性能。
  • 本文证明,在复杂的测试环境中,缺陷会更加严重,导致性能下降。
  • 为了实现无退化的完全测试时间自适应,我们提出了DELTA,它包括两个组成部分:TBR和DOT,以改进归一化统计估计并减轻优化中的偏差。
  • 我们在具有四个场景的三个常见数据集和一个新引入的真实世界数据集上评估了DELTA,发现它可以在所有场景上持续改进流行的测试时间自适应方法,产生新的最先进的结果。

3 论文方法的概述

3.1 问题定义

假设我们有训练数据 D t r a i n = ( x i , y i ) i = 1 N t r a i n ~ P t r a i n ( x , y ) D^{train}={{(x_i,y_i)}}^{N^{train}}{i=1}~P^{ train}(x,y) Dtrain=(xi,yi)i=1Ntrain~Ptrain(x,y),其中 x ∈ X x∈\mathcal X x∈X是输入, y ∈ Y = { 1 , 2 , ⋅ ⋅ ⋅ , K } y\in \mathcal Y=\{1,2,···,K\} y∈Y={1,2,⋅⋅⋅,K}是目标标签; f { θ 0 , a 0 } f{\{\theta_0,a_0\}} f{θ0,a0}表示在 D t r a i n D^{train} Dtrain上学习或估计的具有参数 θ 0 \theta_0 θ0和归一化统计量 a 0 a_0 a0的模型。在不通用性的情况下,我们将测试流表示为 D t e s t = { ( x j , y j ) } j = 1 N t e s t ∼ P t e s t ( x , y ) \mathcal{D}^{\mathrm{test}}=\{(x_{j},y_{j})\}{j=1}^{N^{\mathrm{test}}}\sim P^{\mathrm{test}}(x,y) Dtest={(xj,yj)}j=1Ntest∼Ptest(x,y),其中 { y j } \{y_j\} {yj}实际上不可用,下标 j j j也表示测试流中的样本位置。当 P t e s t ( x , y ) ≠ P t r a i n ( x , y ) P^{\mathrm{test}}(x,y)\neq P^{\mathrm{train}}(x,y) Ptest(x,y)=Ptrain(x,y)(输入/输出空间 X / Y \mathcal X / \mathcal Y X/Y在训练和测试数据之间是一致的)时, f { θ 0 , a 0 } f{\{\theta_0,a_0\}} f{θ0,a0}可能在 D t e s t D^{test} Dtest上表现不佳。在完全测试时间自适应方案下,在推理时迭代step t≥1期间,模型 f { θ t − 1 , a t − 1 } f_{\{\theta_{t-1},a_{t-1}\}} f{θt−1,at−1}接收一个小批量测试数据 { x m t + b } b = 1 B \{x_{m_{t}+b}\}{b=1}^B {xmt+b}b=1B,批量大小为B( m t m_t mt是推理步骤t之前观察到的测试样本数),然后基于当前测试小批量将其自身提升到 f { θ t , a t } f{\{\theta_{t},a_{t}\}} f{θt,at},并输出实时预测 { p m t + b } b = 1 B ( p ∈ R K ) . \{p_{m_{t}+b}\}_{b=1}^{B}(p\in\mathbb{R}^{K}). {pmt+b}b=1B(p∈RK).。最后,基于每个推理步骤的在线预测来计算评估度量。完全测试时间自适应强调在实时推理过程中完全执行自适应,即训练过程不能中断,训练数据在测试过程中不再可用,并且自适应应在测试流上的一次通过中完成。

最常见的假设是, D t e s t D^{test} Dtest独立于 P t e s t ( x , y ) P^{test}(x,y) Ptest(x,y)进行采样。在现实环境中,这一假设并不总是成立的,例如,某些类别的样本可能在某一时间段内更频繁地出现,这导致了另一个假设:测试样本是依赖性采样的。大多数研究只考虑了具有类平衡测试样本的场景,而在现实世界中,测试流可以是类平衡的。考虑到潜在抽样策略和测试类别分布,我们在以下四种情况下全面研究了测试时间适应性。为了方便起见,我们将测试样本从类平衡测试分布中独立/依赖地采样的场景表示为IS+CB/DS+CB;表示从IS+CI/DS+CI类不平衡测试分布中独立/依赖地采样测试样本的场景,如图1所示。其中,IS+CB是FTTA研究中最常见的场景,其他三种场景也经常出现在现实世界的应用中。

3.2 深度研究归一化统计

  • 诊断1:每个测试小批量中的归一化统计数据不准确

我们在CIFAR100-C上进行了实验。从图2我们可以看出,BN自适应中使用的统计数据 μ ^ b a t c h , σ ^ b a t c h \hat{\mu}^{\mathrm{batch}},\hat{\sigma}^{\mathrm{batch}} μ^batch,σ^batch在自适应过程中波动很大,在大多数测试小批量中都是不准确的。需要注意的是,对于BN自适应,预测是基于实时统计数据在线进行的,因此较差的估计可能会对性能产生负面影响。更严重的是,DS+CB情景下的估计更糟。在表2中,尽管在IS+CB场景中,与Source(使用固定的预训练模型f{θ0,a0}进行测试)相比,BN adapt和TENT可以提高准确性,但在DS+CB情况下,它们会退化。总的来说,我们可以看到,糟糕的统计数据严重阻碍了测试时间的适应,因为它们完全来自当前的小批量。

  • 处理一:测试时间批量重整化(TBR)是一种简单而有效的工具,可以提高归一化。
    很自然地,在自适应过程中,简单地使用测试时间移动平均值 μ ^ e m a , σ ^ e m a \hat{\mu}^{\mathrm{ema}},\hat{\sigma}^{\mathrm{ema}} μ^ema,σ^ema来执行归一化,称为TEMA,其中, μ ^ t ema = α ⋅ μ ^ t − 1 ema + ( 1 − α ) ⋅ s g ( μ ^ t batch ) , σ ^ t ema = α ⋅ σ ^ t − 1 ema + ( 1 − α ) ⋅ s g ( σ ^ t batch ) , \hat{\mu}t^\text{ema }=\alpha\cdot\hat{\mu}{t-1}^\text{ema }+(1-\alpha)\cdot sg(\hat{\mu}_t^\text{batch}),\hat{\sigma}t^\text{ema}=\alpha\cdot\hat{\sigma}{t-1}^\text{ema}+(1-\alpha)\cdot sg(\hat{\sigma}_t^\text{batch}), μ^tema =α⋅μ^t−1ema +(1−α)⋅sg(μ^tbatch),σ^tema=α⋅σ^t−1ema+(1−α)⋅sg(σ^tbatch),sg(·)代表停止梯度的操作, α \alpha α是一个平滑系数,TEMA可以持续改进BN自适应:图2中的归一化统计数据变得更加稳定和准确,表2中的测试精度也得到了提高。

    然而,对于涉及参数更新的TENT,TEMA可以破坏预训练模型,如表2所示。如Ioffe&Szegedy(2015)所述,简单地使用移动平均值将抵消梯度优化和归一化的影响,因为梯度下降优化不考虑归一化,导致模型参数的无限增长。因此,我们将批量重整化引入到测试时间自适应中,导致TBR,其公式如下 v ∗ = v − μ ^ b a t c h σ ^ b a t c h ⋅ r + d , w h e r e r = s g ( σ ^ b a t c h ) σ ^ e m a , d = s g ( μ ^ b a t c h ) − μ ^ e m a σ ^ e m a , v^*=\frac{v-\hat{\mu}^{\mathbf{batch}}}{\hat{\sigma}^{\mathbf{batch}}}\cdot r+d,\quad\mathrm{where}\quad r=\frac{sg(\hat{\sigma}^{\mathbf{batch}})}{\hat{\sigma}^{\mathbf{ema}}},\quad d=\frac{sg(\hat{\mu}^{\mathbf{batch}})-\hat{\mu}^{\mathbf{ema}}}{\hat{\sigma}^{\mathbf{ema}}}, v∗=σ^batchv−μ^batch⋅r+d,wherer=σ^emasg(σ^batch),d=σ^emasg(μ^batch)−μ^ema,我们在算法2中给出了详细的算法描述。与BN自适应不同,我们使用测试时间移动平均值来校正归一化(通过 r r r和 d d d)。与TEMA不同的是,TBR与基于梯度的自适应方法非常兼容,并且可以改进它们,如表2所示。对于BN自适应,TEMA等于TBR。与训练阶段使用的原始批量重整化不同,TBR用于推理阶段,推理阶段使用从测试批量导出的统计数据和移动平均值。此外,当自适应从训练的模型 f θ 0 , a 0 f{θ_0,a_0} fθ0,a0开始时,TBR放弃了对r和d的预热和截断操作,因此不引入额外的超参数。TBR可以直接应用于具有BN的普通预训练模型,而不需要用这种校准的归一化来训练模型。

3.3更深入地了解测试时间参数优化

在BN自适应的基础上,TENT通过熵最小化进一步优化了仿射参数 γ , β γ,β γ,β,并表明与单独使用BN自适应相比,测试时间参数优化可以产生更好的结果。

  • 诊断二:测试时间优化偏向类别样本多。
    我们在CIFAR100-C的IS+CB和DS+CB高斯噪声破坏测试数据(高斯)上评估了该模型。我们还在CIFAR100的原始干净测试集上测试了该模型以进行比较。图3描述了每类预测的数量,而表3显示了相应的标准偏差、范围(最大值减去最小值)和准确性。我们得出以下五个结论。
    • 即使对于在类平衡训练数据上训练并在类平衡测试集上测试的模型,预测也是不平衡的,其中 P t e s t ( x , y ) = P t r a i n ( x , y ) P^{test}(x,y)=P ^{train}(x,y) Ptest(x,y)=Ptrain(x,y):图3(左)中的"clean"曲线,标准偏差8.3,范围46。
    • 如图3(左)所示,当 P t e s t ( x , y ) ≠ P t r a i n ( x , y ) P^{test}(x,y)\neq P ^{train}(x,y) Ptest(x,y)=Ptrain(x,y)时,预测变得更加不平衡:在干净和损坏的测试集上,范围分别为46和956。
    • BN自适应+TEMA提高了准确率(从27.0%到58.0%),同时缓解了预测不平衡(范围从956下降到121.6)。
    • 尽管TENT+TBR的准确性进一步提高(从58.0%提高到62.2%),但预测结果却变得更加不平衡(范围从121.6变化到269.8)。熵最小化损失集中在具有低熵的数据上,而由于训练的模型,某些类别的样本可能具有相对较低的熵,因此TENT会加剧预测不平衡。
    • 在相关测试流中,不仅模型精度下降,而且预测变得更加不平衡(TENT+TBR的独立/相关样本的范围269.8/范围469.2),因为在DS+CB场景中,模型可能在一段时间内被某些类别绝对支配。

在正常训练阶段,不平衡的数据是有害的,导致模型有偏差和整体准确性差。我们的主要动机是,测试时间自适应方法还涉及基于模型预测的梯度优化;然而,预测实际上是不平衡的,特别是对于依赖流或类不平衡流以及强调低熵的自适应方法。因此,我们认为测试时间优化实际上偏向于一些优势类,导致性能较差。偏斜的优化和不平衡的预测形成了一个恶性循环。

  • 处理方法二
    DOT可以缓解有类别偏差的优化。已经开发了许多方法来处理训练阶段的类不平衡,但当涉及到完全测试时间自适应时,它们面临着几个挑战:(i)网络架构是不可变的。(ii)由于测试样本类频率是动态的和不可知的,使输出分布均匀的共同约束不再合理。(iii)当测试小批量到达时,推理和自适应必须实时发生(只有一次通过测试数据,没有迭代学习)。
    考虑到这些约束条件,我们提出了算法1中提出的DOT。DOT主要来源于按类别重新加权。为了处理动态变化和未知的类频率,我们使用动量更新的类频率向量 z ∈ R K z∈\mathbb R^K z∈RK(算法1的第10行),该向量由 z [ k ] = 1 K , k = 1 , 2 , ⋅ ⋅ ⋅ , K . z[k]=1K,k=1,2,···,K. z[k]=1K,k=1,2,⋅⋅⋅,K.启动。对于每个推理步骤,我们根据每个测试样本的伪标签和当前z为其分配权重(算法1第5,6行)。具体来说,当z[k]相对较大时,在随后的适应过程中,DOT将减少第k类样本(伪标签)的贡献,并强调其他样本。值得注意的是,DOT可以同时缓解预训练模型(如类间相似性)、测试流(如类不平衡场景)引起的偏差优化。

    DOT是解决有偏优化的一般思路,算法1中的一些部分有多个选项,因此它可以与不同的现有测试时间自适应技术相结合。对于"正向(·)"函数(算法1的第3行),可以合并所讨论的BN自适应和TBR。对于损失函数L(·)(算法1的第8行),研究通常采用熵最小化损失: L ( p b ) = − ∑ k = 1 K p b [ k ] log ⁡ p b [ k ] \mathcal{L}(p_b) = -\sum_{k=1}^Kp_b[k]\log p_b[k] L(pb)=−∑k=1Kpb[k]logpb[k]或具有伪标签的交叉熵损失: L ( p b ) = − I p b [ k b ∗ ] ≥ τ ⋅ log ⁡ p b [ k ‾ b ∗ ] \mathcal{L}(p_{b}) = -\mathbb{I}{p{b}[k_{b}^{*}]\geq\tau} \cdot \log p_{b}[\overline{k}{b}^{*}] L(pb)=−Ipb[kb∗]≥τ⋅logpb[kb∗]。同样,对于熵最小化,EntW也抛弃了高熵的样本,强调低熵样本: L ( p b ) = − I H b < τ ⋅ e τ − H b ⋅ ∑ k = 1 K p b [ k ] log ⁡ p b [ k ] \mathcal{L}(p_b)=-\mathbb{I}{H_b<\tau}\cdot e^{\tau-H_b}\cdot\sum_{k=1}^Kp_b[k]\log p_b[k] L(pb)=−IHb<τ⋅eτ−Hb⋅∑k=1Kpb[k]logpb[k],其中 H b H_b Hb是样本 x b x_b xb的熵。

4 论文实验

  • 数据集

    我们在常见数据集CIFAR100-C、ImageNetC、ImageNet-R和新引入的视频(片段)数据集:YouTube BoundingBoxes(YTBB sub)的子集(上进行了实验。CIFAR100-C/ImageNet-C包含15种损坏类型,每种类型具有5个严重级别;除非另有规定,否则我们使用已发表的作为ICLR 2023最高级别的会议论文。ImageNet-R包含ImageNet类别的各种风格(例如绘画)。对于CIFAR100-C的评估,我们采用Hendrycks等人的训练后的ResNeXt-29)模型。为 f θ 0 , a 0 f{θ_0,a_0} fθ0,a0;对于ImageNet-C/-R,我们使用来自Torchvision的经过训练的ResNet-50模型。在相应的原始训练数据上训练模型。对于YTBB sub,我们使用在COCO的相关图像上训练的ResNet-18。任务、数据集和示例的详细信息见附录A.1。

  • 评价指标

    我们报告各类别的平均准确度(Acc,%);在正文中,对CIFAR100-C和ImageNet-C的15种不同损坏类型的结果进行了平均,请参阅附录A.5、A.6中每种损坏类型的详细性能。

  • IS+CB场景中的评估

    CIFAR100-C的结果如表4所示。可以看出,所提出的DELTA持续改进了先前的自适应方法PL(增益0.7%)、TENT(增益0.8%)和Ent-W(增益0.8%),实现了新的最先进的性能。结果还表明,当前的测试时间自适应方法确实存在所讨论的缺点,并且所提出的方法可以帮助它们获得优越的性能。然后,我们在更具挑战性的数据集ImageNet-C上评估了这些方法。与CIFAR100C上的结果一致,DELTA显著改进了现有的方法。由于与ImageNet-C上的类号(1000)相比,自适应批量大小(64)太小,因此之前的方法比CIFAR100-C受到更严重的损害。因此,DELTA在ImageNet-C中获得了更大的增益:比PL增益1.6%,比TENT增益2.4%,比Ent-W增益5.6%。

  • DS+CB场景中的评估

    为了模拟相关流,根据Yurochkin等人(2019),我们通过浓度因子ρ>0的狄利克雷分布来排列样本(ρ越小,同类样本的浓度就越高,详见附录a.1)。我们用ρ∈{1.0,0.5,0.1}来检验模型。实验结果如表5所示(我们在附录A.4中提供了ρ=0.01的更极端情况的结果)。具有代表性的测试时间自适应方法在相关场景中性能下降,尤其是在小ρ采样的数据上。DELTA成功地帮助模型适应不同浓度因子的环境。值得注意的是,DELTA的DS+CB结果与is+CB结果接近,例如,TENT+DELTA在CIFAR100-C的is+CB和DS+CB(ρ=0.5)测试流上分别达到69.5%和68.5%的准确率。

  • IS+CI和DS+CI场景中的评估

    我们对具有不平衡因子π的测试样本进行了重新采样(π越小,测试数据就越不平衡,详见附录A.1)。我们测试了π∈{0.1,0.05}的模型(类似地,我们在附录A.4中展示了π=0.001的极端实验)。表6总结了IS+CI和DS+CI场景中的结果,观察结果如下:(i)在类不平衡场景下,性能退化不如依赖性数据严重。这主要是因为不平衡的测试数据对归一化统计的影响相对较小。DELTA在不平衡的测试流上运行良好。(ii)混合DS+CI场景可能比单独场景更困难。在混合场景中,DELTA也可以提高基线。(iii)尽管低熵强调方法Ent-W在IS+CB场景中提高了TENT(表4),但在依赖或类不平衡场景中,它可能不如TENT(在表5,6中的ImageNet-C上的结果)。原因是Ent-W导致了一个副作用------放大了阶级偏见,这将抵消甚至压倒它的好处。DELTA消除了Ent-W的副作用,同时保留了其优点,因此EntW+DELTA始终显著优于TENT+DELTA。

  • 对真实分布外数据集ImageNet-R和YTBB-sub的评估。

    ImageNet-R本质上是类不平衡的,由卡通、艺术、绘画、素描、玩具等混合变体组成。如表8所示,DELTA也使其得到了持续的改进。虽然与ImageNet-C相比,ImageNet-R是单独收集的,它由更难识别的硬情况组成,但DELTA的增益不如ImageNet-C。对于YTBB sub,自然会遇到依赖样本和类不平衡样本。我们看到,经典方法受到严重的退化,而DELTA有助于它们获得良好的性能。

  • 分布中测试数据的评估。

    合格的FTTA方法在不可分割数据集上应该是"安全的",即 P t e s t ( x , y ) = P t r a i n ( x , y ) P^{test}(x,y)=P^{train}(x,y) Ptest(x,y)=Ptrain(x,y)。根据表7,(i)DELTA继续改善性能,尽管略有改善;(ii)大多数自适应方法可以产生与Source相当的结果,并且与DELTA的组合甚至在分布数据上优于Source。

  • 使用不同架构进行评估

    图4表明,DELTA可以帮助改进以前使用不同模型架构的测试时间自适应方法。附录A.4中提供了更多的分析(例如,小批量、不同严重程度的评估)。

  • 消融实验

    DELTA由两个工具组成:TBR和DOT。在表9中,我们在四个场景和两个数据集的TENT的基础上分析了他们的贡献。第1行表示TENT的结果。在TENT上单独应用TBR或DOT在大多数场景和数据集中都会带来收益。然而,我们发现,当测试流是is+CB并且批大小较大时,TBR实现的改进较少(例如,单独对批大小为200的CIFAR100-C的is+CB数据执行TBR自适应并不能提高TENT)。然而,当批量大小相对较小时(例如,ImageNet-C,批量大小为64),TBR的好处将变得明显。更重要的是,TBR对于依赖样本是非常有效和必要的。DOT可以在所有场景中持续推广TENT或TENT+TBR,尤其是当类数很大时。这些结果表明,不准确的归一化统计和有偏差的优化都是有害的,TBR和DOT可以有效地缓解它们。

  • TBR中的α和DOT中的λ的影响。

    与大多数基于指数移动平均的方法类似,当平滑系数α(或λ)太小时,自适应可能不稳定;当α(或λ)过大时,适应会很慢。图5提供了CIFAR100-C(来自验证集)的DS+CB(ρ=0.5)样品上α(左)和λ(右)的消融研究。我们发现TBR和DOT在较宽的α和λ范围内表现相当好

5总结

在本文中,指明了测试时间自适应方法中导致性能次优甚至退化的缺陷,并提出了DELTA来缓解这些缺陷。首先,BN自适应中使用的归一化统计在很大程度上受到当前测试小批量的影响,这可能是片面的,并且波动很大。我们引入TBR来使用(近似的)全局统计来改进它。其次,优化高度偏向于优势类,使模型更有偏向性。DOT通过在线方式重新平衡每个班级的贡献来缓解这个问题。这两个强大工具的结合产生了我们的插件方法DELTA,它同时在不同的场景(IS+CB、DS+CB、IS+CI和DS+CI)中实现了改进。

相关推荐
龙的爹23334 分钟前
论文翻译 | RECITATION-AUGMENTED LANGUAGE MODELS
人工智能·语言模型·自然语言处理·prompt·gpu算力
白光白光4 分钟前
凸函数与深度学习调参
人工智能·深度学习
sp_fyf_20247 分钟前
【大语言模型】ACL2024论文-18 MINPROMPT:基于图的最小提示数据增强用于少样本问答
人工智能·深度学习·神经网络·目标检测·机器学习·语言模型·自然语言处理
weixin_543662869 分钟前
BERT的中文问答系统33
人工智能·深度学习·bert
爱喝白开水a12 分钟前
Sentence-BERT实现文本匹配【分类目标函数】
人工智能·深度学习·机器学习·自然语言处理·分类·bert·大模型微调
Jack黄从零学c++33 分钟前
opencv(c++)---自带的卷积运算filter2D以及应用
c++·人工智能·opencv
封步宇AIGC44 分钟前
量化交易系统开发-实时行情自动化交易-4.2.3.指数移动平均线实现
人工智能·python·机器学习·数据挖掘
Mr.谢尔比1 小时前
李宏毅机器学习课程知识点摘要(1-5集)
人工智能·pytorch·深度学习·神经网络·算法·机器学习·计算机视觉
我是博博啦1 小时前
matlab例题
人工智能·算法·matlab
DieYoung_Alive1 小时前
一篇文章了解机器学习
人工智能·机器学习