Mamba: Linear-Time Sequence Modeling with Selective State Spaces论文笔记

文章目录

Mamba: Linear-Time Sequence Modeling with Selective State Spaces

论文地址: https://arxiv.org/abs/2312.00752

代码: https://github.com/state-spaces/mamba

主要学习Mamba的结构,因此不包含实验及后面的部分

摘要

  1. 基础模型几乎普遍基于Transformer架构及其核心注意力模块
  2. 许多新框架(如线性注意力、门控卷积和循环模型以及结构化状态空间模型(SSM))被开发出来以解决Transformer在长序列上的计算效率低的问题。但是他们在重要模式如作为语言的一个关键弱点是它们无法执行执行基于内容的推理。
  3. 让SSMs参数作为输入函数可以解决其离散模态的弱点,允许模型根据当前字符选择性地沿着序列长度维度传播或忘记信息。
  4. 在循环模式下设计了一种硬件感知的并行算法,可以将简化后的SSMs集成到简单的端到端神经网络架构中,不需要注意力,甚至不需要MLP
  5. Mamba推理速度比Transformer高5x的吞吐量并且序列长度可以线性缩放,它的性能在高达百万长度序列的实际数据上得到提高。
  6. 作为通用序列模型backbone, Mamba在语言、音频和基因组学等多种模态上实现了最先进的性能。

引言

  1. 结构化状态空间序列模型(SSMs)有效地成为一类有前途的序列建模架构。它可以解释为由循环神经网络(RNN)和卷积神经网络(CNN)的组合,其灵感来自经典状态空间模型。它可以非常有效地计算为递归或卷积,并且序列长度具有线性或近线性缩放。此外,还拥有在某些数据模式下对远程依赖关系进行建模的原则性机制。然而,他们在对离散和信息密集的数据(例如文本)进行建模方面效果交叉。
  2. 提出了一种新的选择性状态空间模型,在多个先前的工作的多个维度上进行了改进,以实现Transformer的建模能力,同时线性缩放序列长度。
    • 选择机制: 确定了先前模型的一个关键限制------以依赖输入的方式有效选择数据的能力(即关注或忽略特定输入)。基于选择性复制和感应头等重要合成任务的直觉,根据输入参数化基于输入的SSMs参数来设计一种简单的选择机制。这使得模型能够过滤掉不相关的信息并无限期地记住相关信息。
    • 硬件感知算法: 所有先前的SSM模型都必须具有时间和输入不变性,才能提高计算效率。硬件感知算法通过扫描而不是卷积来计算模型,但不会具体扩展状态,以避免GPU内存层次结构的不同级别之间的IO访问。
    • 结构: 将先前的SSMs架构的设计与Transformer的MLP块组合成一个块来简化先前的深度序列模型架构,从而形成包含选择性状态空间的简单并且同质的架构设计。
  3. 选择性SSM以及扩展的Mamba架构师完全循环模型,其关键属性使其适合在序列上运行的通用基础模型的backbone
    1. 高质量: 选择性作为语言和基因组学等密集模式带来了强大的性能
    2. 快速训练和推理: 训练期间,计算和内存与序列长度呈线性关系,推理期间自回归展开模型只需要每一步恒定的时间,因为它不需要先前元素的缓存。
    3. 长上下文: 质量和效率共同提高了序列长度高达1M的实际数据的性能。
  4. 验证了Mamba作为序列FM backbone的潜力
    1. 合成: 在合成任务中,Mamba不仅可以轻松应对,还可以无限长地推理解决方案(>1M的token)
    2. 音频和基因组学: 在音频波形和DNA序列建模方面,Mamba在预训练质量和下游指标方面均优于最先进的模型。在这两种设置中,它的性能随着更长的上下文(达到百万级长度的序列)而提高。
    3. 语言建模: 无论是在训练前困惑度还是下游评估方面, Mamba 是第一个真正实现 Transformer 质量性能的线性时间序列模型。通过高达1B参数的缩放法则,Mamba超过了大范围baseline的性能。

相关工作(SSMs)

为了更好的了解SSMs,该部分在原文的基础上会做一些补充,补充部分为博主不了解部分(博主是CV方向的)

结构化状态空间序列模型(S4)是最近一类用于深度学习的序列模型,与RNN、CNN和经典状态空间模型广泛相关。他们接收特定连续系统的启发,该连续系统通过隐式潜在状态 h ( t ) ∈ R N h(t)\in\mathbb R^N h(t)∈RN映射一维函数或序列 x ( t ) ∈ R → y ( t ) ∈ R x(t)\in\mathbb{R}\to y(t)\in \mathbb{R} x(t)∈R→y(t)∈R

具体来说,S4模型由四个参数 ( Δ , A , B , C ) (\Delta, A, B, C) (Δ,A,B,C)定义,它们定义了两个阶段的序列到序列的转换
h ′ ( t ) = A h ( t ) + B x ( t ) ( 1 a ) h t = A ˉ h t − 1 + B ˉ x t ( 2 a ) K ˉ = ( C B ˉ , C A B ˉ , ... , C A ˉ k B ˉ , ... ) ( 3 a ) y ( t ) = C h ( t ) ( 1 b ) y t = C h t ( 2 b ) y = x ∗ K ˉ ( 3 b ) \begin{aligned} &h'(t)=\mathbf{A}h(t)+\mathbf{B}x(t)&(1a) & h_t=\bar{\mathbf{A}}h_{t-1}+\bar{\mathbf{B}}x_t & (2a) & \bar{\mathbf{K}}=(\mathbf{C\bar{B},C\bar{AB},\dots,C\bar{A}^k\bar{B}, \dots}) & (3a)\\ &y(t)=\mathbf{C}h(t) & (1b) & y_t=\mathbf{C}h_t & (2b) & y=x*\mathbf{\bar{K}}&(3b) \end{aligned} h′(t)=Ah(t)+Bx(t)y(t)=Ch(t)(1a)(1b)ht=Aˉht−1+Bˉxtyt=Cht(2a)(2b)Kˉ=(CBˉ,CABˉ,...,CAˉkBˉ,...)y=x∗Kˉ(3a)(3b)

离散化

第一阶段通过固定公式 A ˉ = f A ( Δ , A ) \bar{\mathbf{A}}=f_A(\Delta, \mathbf{A}) Aˉ=fA(Δ,A)和 B = f b ( Δ , A , B ) B=f_b(\Delta, \mathbf{A}, \mathbf{B}) B=fb(Δ,A,B)将"连续参数" ( D e l t a , A , B ) (Delta, \mathbf{A}, \mathbf{B}) (Delta,A,B)转换为"离散参数" ( A ˉ , B ˉ ) (\mathbf{\bar{A}}, \mathbf{\bar{B}}) (Aˉ,Bˉ), 其中 ( f A , f B ) (f_A, f_B) (fA,fB)成为离散化规则 ,可以使用各种规则,,例如零阶保持(ZOH):
A ˉ = e x p ( Δ A ) B ˉ = ( Δ A ) − 1 ( e x p ( Δ A − I ) ) ⋅ Δ B \begin{aligned} \bar{\mathbf{A}}&=exp(\Delta\mathbf{A})\\ \mathbf{\bar{B}}&=(\Delta\mathbf{A})^{-1}(exp(\Delta\mathbf{A}-\mathbf{I}))\cdot\Delta\mathbf{B} \end{aligned} AˉBˉ=exp(ΔA)=(ΔA)−1(exp(ΔA−I))⋅ΔB

离散化与连续时间系统有很深的联系,可以赋予它们额外的属性。然而从机械角度来看,离散化可以简单地视为SSMs前向传递中计算图的第一步。SSMs的替代风格可以绕过离散化步骤并直接参数化 ( A , B ) (\mathbf{A}, \mathbf{B}) (A,B), 这可能更容易推理。

计算

参数从 ( Δ , A , B , C ) → ( A , B , C ) (\Delta, \mathbf{A}, \mathbf{B}, \mathbf{C})\to(\mathbf{A}, \mathbf{B}, \mathbf{C}) (Δ,A,B,C)→(A,B,C)转换后,可以通过两种方式计算模型: 线性递推(公式1)或全局卷积(公式2)。

通常,模型使用卷积训练模式(公式3)来实现高效地并行化(提前看到整个输入序列),并切换到循环模式(公式2)用于高效地自回归推理(一次看到一个时间步的输入)

线性时间不变性(LTI)

公式1到公式2的一个重要属性是模型的动态随时间保持恒定。换句话说, ( Δ , A , B , C ) (\Delta, \mathbf{A, B, C}) (Δ,A,B,C)以及 ( A , B ) (\mathbf{A,B}) (A,B)对于所有时间步都是固定的。该属性称为线性时间不变性(LTI) ,它与递归和卷积密切相关。作者认为LTI SSMs等同于任何线性递归(公式2a)或卷积(公式3b),并使用LTI作为此类模型的总称。

到目前为止,由于基本效率限制,所有结构化SSMs都是LTI(例如computed as convolutions)。然而,这项工作的核心见解是, LTI模型在对某些类型的数据进行建模时存在根本局限性,而本文的技术贡献涉及消除LTI约束,同时克服效率瓶颈。

结构和尺寸

最后,作者注意到结构化SSMs之所以如此命名,是因为有效地计算它们需要在矩阵 A \mathbf{A} A上施加结构。最流行的结构形式是对角线,本文也使用了它。

在这种情况下, A ∈ R N × M , B ∈ R N × 1 , C ∈ R 1 × N \mathbf{A}\in\mathbb{R}^{N\times M}, \mathbf{B}\in\mathbb{R}^{N\times1},\mathbf{C}\in\mathbb{R}^{1\times N} A∈RN×M,B∈RN×1,C∈R1×N矩阵都可以用 N N N个数表示。为了对具有D个通道的batch size为B, 长度为L的输入序列 x x x进行操作, SSMs独立应用于每个通道。值得注意的是,在这种情况下,总隐藏状态的每个输入的维度为 D N DN DN, 并且在序列长度上计算需要 O ( B L D N ) O(BLDN) O(BLDN)的时间和内存。

一般状态空间模型

可以注意到状态空间模型是一个非常广泛的含义,它简单地表示任何具有潜在状态的循环过程的概念。它被用来指代不同学科中的许多不同概念,包括马尔科夫决策过程(MDP)、动态因果模型(DCM)、卡尔曼滤波器、隐马尔可夫模型(HMM)和线性动力系统(LDS)(机器学习)以及一般地循环模型(有时是卷积)(深度学习)。

在整篇论文中,使用术语"SSMs"来专门指代结构化SSMs类或S4模型,并且这些术语可以互换使用。为了方便起见,还可能包含此类模型的衍生模型,例如那些侧重于线性递归或全局卷积观点的模型,并且在必要时澄清细微差别。

SSMs架构

SSMs是独立的序列转换,可以合并到端到端神经网络架构中(有时也将SSMs架构称为SSNN, 其与SSMs层的关系就像CNN与线性卷积层的关系一样)。作者讨论了一些最著名的SSMs架构,其中许多架构也将作为本文的主要baseline

  • Linear attention: 是自注意力的近似,涉及递归,可以被视为退化的线性SSMs
  • H3: 推广递归来使用S4, 它可以被看做是一种由两个门控连接SSM的架构。H3还在主SSM层前插入一个标准局部卷积,将其构造呈一个shift-SSM
  • Hyena: 使用与H3相同的架构,但用MLP参数化全局卷积代替了S4层。
  • RetNet: 在架构中添加一个额外的们,并使用简单的SSM,从而允许使用多头注意力(MHA)的变体代替卷积来提供可并行化的路径计算
  • RWKV: 是一种近期的RNN,基于另一种现行注意力近似(attention-free Transformer)设计用于语言建模。其主要"WKV"机制设计LTI循环,可以视为两个SSM的比率。

S4(补充)

参考博客: https://blog.csdn.net/m0_63745825/article/details/138136975

S4在SSMs的基础上有三个升级

  • 离散化SSM
  • 循环/卷积表示
  • 基于HiPPO处理长序列

离散数据的连续化: 基于零阶保持技术做连续化并采样

  1. 首先,每次收到离散信号时,都会保留该值直到收到新的离散信号,如此操作导致的结果就是创建了SSMs可以使用的连续信号
  2. 保持该值的时间由一个新的可学习的参数表示,成为步长 Δ \Delta Δ
  3. 有了连续的输入信号后,就可以生成连续的输出,并且根据输入的时间步长对值进行采样

这样采样值就是离散输出,并且可以针对 A 、 B \mathbf{A}、\mathbf{B} A、B按如下方式做零阶保持:
A ˉ = e x p ( Δ A ) B ˉ = ( Δ A ) − 1 ( e x p ( Δ A ) − I ) ⋅ Δ B \begin{aligned} \bar{\mathbf{A}}&=exp(\Delta\mathbf{A})\\ \mathbf{\bar{B}}&=(\Delta\mathbf{A})^{-1}(exp(\Delta\mathbf{A})-\mathbf{I})\cdot\Delta\mathbf{B} \end{aligned} AˉBˉ=exp(ΔA)=(ΔA)−1(exp(ΔA)−I)⋅ΔB

其中, A , B \mathbf{A,B} A,B为离散化矩阵。最终从连续SSMs转变为离散SSM, 使得不再是函数导函数 x ( t ) → y ( t ) x(t)\to y(t) x(t)→y(t), 而是序列到序列 x k → y k x_k\to y_k xk→yk。所以使用的是 k k k表示离散的时间步长而不是 t t t。

循环结构表示: 方便快速推理

每个时间步,都会涉及到隐藏状态的更新。比如 h k h_k hk取决于 B ˉ x k \bar{\mathbf{B}}x_k Bˉxk和 A ˉ h k − 1 \bar{\mathbf{A}}h_{k-1} Aˉhk−1的共同作用,然后通过 C h k \mathbf{C}h_k Chk预测输出 y k y_k yk

模型展开后如下图所示( h k h_k hk始终是 B ˉ x k \bar{\mathbf{B}}x_k Bˉxk和 A ˉ h k − 1 \bar{\mathbf{A}}h_{k-1} Aˉhk−1的共同作用下进行更新)。

卷积结构表示: 方便并行训练

在经典的图像识别任务中,使用过滤器(卷积核)来导出聚合特征,而SSMs也可以表示呈卷积的形式

而用来表示这个过滤器的SSMs公式为

长距离依赖问题的解决之道------HiPPO

HiPPO: Recurrent Memory with Optimal Polynomial Projections

方法(选择性状态空间模型)

动机: 选择性作为压缩手段

作者认为序列建模的一个基本问题是: 将上下文压缩为更小的状态。事实上,作者从这个角度来看待流行序列模型的权衡。例如,注意力既有效又低效,因为它明确地根本不压缩上下文。这可以从以下事实看出: 自回归推理需要显式存储整个上下文(即KV缓存),这直接导致Transformers的线性时间推理和二次时间训练缓慢。另一方面,循环模型的高效的,因为它们具有有限状态,这意味着恒定时间推理和线性时间训练。然而,它们的有效性受到该状态压缩上下文程度的限制。

为了理解这一原理,作者重点关注两个合成任务的运行示例

  • 选择性复制 任务通过改变要记忆的标记的位置来修改流行的复制任务。它需要内容感知推理才能记住相关标记(彩色)并过渡不相关标记(白色)。
  • Induction Heads 任务是一种众所周知的机制,据推测可以解释LLM(大语言模型)的大部分情景学习能力。它需要上下文感知推理才能知道何时再适当的情境中产生正确的输出(黑色)

这些任务揭示了LTI模型的故障模式。从循环试图来看,它们的恒定动态(公式2中的 A ˉ , B ˉ \mathbf{\bar{A}, \bar{B}} Aˉ,Bˉ转换)不能让它们从上下文中选择正确的信息,也不能以输入相关的方式影响沿序列传递的隐藏状态。从卷积的角度来看,全局卷积可以解决普通复制任务,因为它只需要时间感知,但由于缺乏内容感知,他们很难完成选择性复制任务(上面的图)。更具体地说,输入到输出之间的间距变化,无法通过静态卷积核建模。

总之,序列建模的效率与有效性权衡的特征在于它们压缩状态的程度: 高效模型必须具有较小的状态,而有效模型必须具有包含上下文所有必要信息的状态。反过来,文章提出构建序列模型的基本原则是选择性: 或上下文感知能力,以将输入集中或过滤到顺序状态中。

通过选择性改进SSM

将选择机制纳入模型的一种方法是让影响序列交互的参数(例如RNN的循环动态或CNN的卷积核)依赖于输入。

上面两个算法说明了文章使用的主要选择机制。主要区别在于简单地输入的 多个参数 Δ , B , C \Delta, \mathbf{B},\mathbf{C} Δ,B,C成为了函数,以及整个张量形状的改变。

作者特别选择 S B ( x ) = L i n e a r N ( x ) , S c ( x ) = L i n e a r N ( x ) , S Δ ( x ) = B o r a d c a s t D ( L i n e a r 1 ( x ) ) S_B(x)=Linear_N(x), S_c(x)=Linear_N(x), S_{\Delta}(x)=Boradcast_D(Linear_1(x)) SB(x)=LinearN(x),Sc(x)=LinearN(x),SΔ(x)=BoradcastD(Linear1(x))和 τ Δ = s o f t p l u s \tau_{\Delta}=softplus τΔ=softplus, 其中 L i n e a r d Linear_d Lineard是维度d的参数化投影。 s Δ s_\Delta sΔ和 τ Δ \tau_\Delta τΔ的选择在后面解释。

选择性SSM的高效实施

卷积核Transformer等硬件友好型架构得到了广泛应用。本节的目标是让选择性SSM在现代硬件(GPU)上也能高效运行。选择机制可以很自然的结合特殊的选择情况。然而,使用SSM的核心限制是其计算效率。

选择性扫描概述: 硬件感知状态扩展

选择机制的目的是克服LTI模型的局限性;与此同时,需要重新审视SSM的计算问题。文章通过三种经典技术来解决这个问题: 内核融合、并行扫描和重新计算:

  • 朴素循环计算使用 O ( B L D N ) O(BLDN) O(BLDN) FLOPs, 而卷积计算使用 O ( B L D log ⁡ ( L ) ) O(BLD\log(L)) O(BLDlog(L)) FLOPs,前者的常数因子较低。因此,对于长序列和不太大的维度 N N N, 循环模式实际上可以使用更少的FLOPs。
  • 两个挑战是循环的顺序性和大量的内存使用。为了解决后者,就想卷积模式一样,可以尝试不真正的实现完整状态 h h h。

主要思想是利用GPU的特性,仅在内存层次结构的更高效级别中实现状态h。基于扫描操作,使用内核融合来减少内存IO量,从而进行加速。

最后,应用经典的重新计算技术来减少内存需要。

简化SSM架构

选择性SSM与结构化SSM一样是独立的序列转换,可以灵活地合并到神经网络中。Mamba通过将由线性启发的块组成的注意力和MLP合并为一个组件来简化H3架构。如下图所示。这是收到门控注意力单元(GAU)的启发,它对注意力做了类似的事情。

该架构涉及通过可控扩展因子 E E E来扩展模型维度 D D D。对于每个块,大多数参数 ( 3 E D 2 ) (3ED^2) (3ED2)都在线性投影中( 2 E D 2 2ED^2 2ED2用于输入投影, E D 2 ED^2 ED2用于输出投影),而内部SSMs贡献较少。相比之下, SSMs参数量( Δ , B , C \Delta, \mathbf{B,C} Δ,B,C的投影和菊展 A \mathbf{A} A)要少得多。重复这个块并与标准化和残差连接交织形成Mamba架构。

选择机制的属性

选择机制是一个更宽泛的概念,可以以不同的方式应用,例如应用于更传统的RNN或CNN, 应用于不同的参数或使用不同的Transformer s ( x ) s(x) s(x)。

与门控机制的链接

最重要的联系: RNN的经典门控机制是SSMs选择机制的一个实例。作者注意到RNN门控和连续时间系统的离散化之间的联系中得到了很好的建立。SSMs中的 Δ \Delta Δ可以被视为发挥了RNN门控机制的通用作用。作者认为SSM的离散化是启发式门控机制的原则基础。

定理 1 : W h e n N = 1 , A = − 1 , B = 1 , s Δ = L i n e a r ( x ) 并且 τ Δ = s o f t p l u s , 那么选择性 S S M 递归 ( 算法 2 ) 采用形式 : g t = σ ( L i n e a r ( x t ) ) h t = ( 1 − g t ) h t − 1 + g t x t 定理1: When\ N=1, A=-1, B=1, s_\Delta=Linear(x)并且\tau_{\Delta}=softplus, 那么选择性SSM递归(算法2)采用形式:\\ \begin{aligned} g_t&=\sigma(Linear(x_t))\\ h_t&=(1-g_t)h_{t-1}+g_tx_t \end{aligned} 定理1:When N=1,A=−1,B=1,sΔ=Linear(x)并且τΔ=softplus,那么选择性SSM递归(算法2)采用形式:gtht=σ(Linear(xt))=(1−gt)ht−1+gtxt
s Δ , τ Δ s_\Delta, \tau_\Delta sΔ,τΔ的具体选择来自这个链接。需要注意的是,如果给定的输入 x t x_t xt应该被完全忽略(合成任务中需要),那么所有通道 D D D都应该忽略它,因此将输入投影投影到1维,然后使用 Δ \Delta Δ进行重复/广播。

选择机制解读

  • 可变间距 选择性允许过滤掉感兴趣的输入之间可能出现的不相关的噪声标记。模型可以机械地过滤掉任何特定输入 x t x_t xt, 例如在门控RNN情况下点那个 g t → 0 g_t\to0 gt→0时。
  • 过滤上下文 根据之前的经验,尽管更多的上下文能带来更好的性能,但许多序列并没有随着更长的上下文而得到改善。一个解释是许多序列模型在必要时无法有效地忽略不相关的上下文。另一方面,选择性模型可以随时简单地重置其状态以删除无关的历史记录,因此原则上它们的性能随着上下文长度的增加而单调提高。
  • 边界重置 : 选择性SSM还可以再边界处重置其状态(如 Δ t → ∞ \Delta_t\to\infty Δt→∞或定理1 g t → 1 g_t\to1 gt→1)。
  • Δ \Delta Δ的解释 : 一般来说, Δ \Delta Δ控制者关注或者忽略当前输入 x t x_t xt之间的平衡。它概括了RNN门: 一个大的 Δ \Delta Δ重置状态 h h h并关注当前输入 x x x, 而小的 Δ \Delta Δ则保留状态并忽略当前输入。公式1和2可以解释为按时间不长 Δ \Delta Δ离散化的连续系统,在这种情况下,较大的 Δ → ∞ \Delta\to\infty Δ→∞表示系统更长时间关注当前输入(从而忘记当前状态),而较小的 Δ → 0 \Delta\to0 Δ→0表示忽略当前的输入。
  • A \mathbf{A} A的解释 : 虽然参数 A \mathbf{A} A也可以是选择性的,但它最终通过 A ˉ = e x p ( Δ A ) \bar{\mathbf{A}}=exp(\Delta\mathbf{A}) Aˉ=exp(ΔA)与 Δ \Delta Δ交互来影响模型(离散化公式4)。因此 Δ \Delta Δ中的选择性足以保证 ( A ˉ , B ˉ ) (\mathbf{\bar{A}, \bar{B}}) (Aˉ,Bˉ)中的选择性,并且是改进的主要来源。
  • B \mathbf{B} B和 C \mathbf{C} C的解释 : 选择性最终的属性是过滤掉不相关的信息,以便序列模型的上下文可以被压缩为有效地状态。在SSMs中,将 B \mathbf{B} B和 C \mathbf{C} C修改为选择性的可以更细粒度地控制是否让输入 x t x_t xt进入状态 h t h_t ht, 或让状态进入输出 y t y_t yt。这些可以解释为允许模型分别根据内容(输入)和上下文(隐藏状态)来调节循环动态。

其他模型详细信息

  • Real vs Complex : 大多数先前的SSMs在状态 h h h下使用复数,这对于在感知模式中有效地执行许多任务的强大性能是必要的。然而,完全实值的SSMs在某些设置下似乎工作得很好,甚至可能更好。Mamba使用实际值作为默认值,这对于除一项任务外的所有任务都适用。假设复数与实数的权衡与数据模态中的连续离散谱有关,其中复数对于连续模态(如音频、视频)有帮助,但对离散模态(如文本、DNA)没有帮助。
  • 初始化: 之前大多数的SSMs还建议特殊的初始化。Mamba对复杂情况的默认初始化是S4D-Lin, 对真实情况的默认初始化是S4D-Real。
  • Δ \Delta Δ的参数化 : Mamba将 Δ \Delta Δ的选择性调整定义 s Δ ( x ) = B r o a d c a s t D ( L i n e a r 1 ( x ) ) s_\Delta(x)=Broadcast_D(Linear_1(x)) sΔ(x)=BroadcastD(Linear1(x)), 这是由 Δ \Delta Δ的机制驱动的。作者观察到它可以从1维扩广到更大的维度 R R R。作者将其设置为 D D D的一小部分,与块中的主要线性投影相比,它使用的参数数量可以忽略不计。广播操作可以被视为另一个投影,初始化为1和0的特定模式。如果这个投影是可训练的,这会导致替代的 s Δ ( x ) = L i n e a r D ( L i n e a r R ( x ) ) s_\Delta(x)=Linear_D(Linear_R(x)) sΔ(x)=LinearD(LinearR(x))被视为低接头应。在实验中, 根据之前的SSM工作将参数 Δ \Delta Δ(可以视为偏差项)初始化为 τ Δ − 1 ( U n i f o r m ( [ 0.001 , 0.1 ] ) ) \tau_{\Delta}^{-1}(Uniform([0.001, 0.1])) τΔ−1(Uniform([0.001,0.1]))
相关推荐
Leventure_轩先生1 分钟前
举个例子,简单说说如何推导IIR滤波器和FIR滤波器的参数
人工智能·算法·机器学习
PhoenixAI817 分钟前
AI绘画-Stable Diffusion 原理介绍及使用
人工智能·python·机器学习·ai作画·stable diffusion
三花AI22 分钟前
GPTPDF: 利用 GPT 将 PDF 转为 Markdown
人工智能·gpt·chatgpt·pdf
8K超高清37 分钟前
推动能源绿色低碳发展,风机巡检进入国产超高清+AI时代
人工智能·科技·目标检测·计算机视觉·能源·智能硬件
只是有点小怂1 小时前
【PYG】Cora数据集分类任务计算损失,cross_entropy为什么不能直接替换成mse_loss
人工智能·分类·数据挖掘
MUKAMO2 小时前
【深度学习】图形模型基础(2):概率机器学习模型与人工智能
人工智能·深度学习·机器学习
zhangbin_2372 小时前
【Python机器学习】模型评估与改进——二分类指标
大数据·人工智能·python·学习·机器学习·分类·数据挖掘
BABA88912 小时前
Transformer模型学习
深度学习·学习·transformer
1234567今天你有没有摸鱼2 小时前
《昇思25天学习打卡营第02天|快速入门》
深度学习·学习·机器学习·mindspore
qq_393060472 小时前
mindspore打卡机器学习正则化与优化器
人工智能·机器学习