xLSTM 阅读笔记

xLSTM

论文发表日期:2024. 05. 07

论文地址:https://arxiv.org/pdf/2405.04517

xLSTM结构可视化

我们可以从第一部分看出来:

RNN 循环神经网络,希望记住所有的信息,也会导致更多信息的丢失(遗忘)

LSTM:设计一个记忆细胞,选择性的遗忘,也是选择性的记忆保 留

LSTM是一个记忆单元,这里看看

或者看一下线少一点的版本。

摘要

在20世纪90年代,the constant error carousel 和 gating 被引入,作为长短期记忆(LSTM)的中心思想。从那时起,lstm经受住了时间的考验,并为许多深度学习的成功做出了贡献,特别是它们构成了第一个大型语言模型(llm)。然而,以可并行化的自注意力为核心的Transformer技术的出现,标志着一个新时代的黎明,在规模上超过了lstm。现在我们提出了一个简单的问题:当将lstm扩展到数十亿参数,利用现代llm的最新技术,但减轻lstm的已知限制时,我们在语言建模方面能够走多远?首先,我们引入了适当的指数门化和稳定技术。其次,我们对LSTM内存结构进行了修改,得到: (i) 具有标量内存、标量更新和新内存混合的sLSTM,(ii)完全可并行使用矩阵内存和协方差更新规则的mLSTM。这些LSTM扩展集成到残余块主干中,将生成xLSTM块,然后将这些块剩余地堆叠到xLSTM架构中。与最先进的transformer和状态空间模型相比,xLSTM的性能和扩展方面都表现良好。

相关推荐
hssfscv16 分钟前
Javaweb 学习笔记——html+css
前端·笔记·学习
Dream Algorithm2 小时前
自古英雄多寂寥
笔记
yuhaiqun19892 小时前
Typora 技能进阶:从会写 Markdown 到玩转配置 + 插件高效学习笔记
经验分享·笔记·python·学习·学习方法·ai编程·markdown
apcipot_rain2 小时前
汇编语言与逆向分析 一轮复习笔记
汇编·笔记·逆向
Lv11770083 小时前
Visual Studio中的多态
ide·笔记·c#·visual studio
HollowKnightZ3 小时前
论文阅读笔记:Class-Incremental Learning: A Survey
论文阅读·笔记
AA陈超3 小时前
枚举类 `ETriggerEvent`
开发语言·c++·笔记·学习·ue5
代码游侠4 小时前
学习笔记——IPC(进程间通信)
linux·运维·网络·笔记·学习·算法
apcipot_rain4 小时前
汇编语言程序设计 从0到1实战笔记
笔记
周小码4 小时前
我用一个周末,写了一个“反内卷“的极简笔记工具
笔记