xLSTM 阅读笔记

xLSTM

论文发表日期:2024. 05. 07

论文地址:https://arxiv.org/pdf/2405.04517

xLSTM结构可视化

我们可以从第一部分看出来:

RNN 循环神经网络,希望记住所有的信息,也会导致更多信息的丢失(遗忘)

LSTM:设计一个记忆细胞,选择性的遗忘,也是选择性的记忆保 留

LSTM是一个记忆单元,这里看看

或者看一下线少一点的版本。

摘要

在20世纪90年代,the constant error carousel 和 gating 被引入,作为长短期记忆(LSTM)的中心思想。从那时起,lstm经受住了时间的考验,并为许多深度学习的成功做出了贡献,特别是它们构成了第一个大型语言模型(llm)。然而,以可并行化的自注意力为核心的Transformer技术的出现,标志着一个新时代的黎明,在规模上超过了lstm。现在我们提出了一个简单的问题:当将lstm扩展到数十亿参数,利用现代llm的最新技术,但减轻lstm的已知限制时,我们在语言建模方面能够走多远?首先,我们引入了适当的指数门化和稳定技术。其次,我们对LSTM内存结构进行了修改,得到: (i) 具有标量内存、标量更新和新内存混合的sLSTM,(ii)完全可并行使用矩阵内存和协方差更新规则的mLSTM。这些LSTM扩展集成到残余块主干中,将生成xLSTM块,然后将这些块剩余地堆叠到xLSTM架构中。与最先进的transformer和状态空间模型相比,xLSTM的性能和扩展方面都表现良好。

相关推荐
koo36444 分钟前
pytorch深度学习笔记12
pytorch·笔记·深度学习
慕容雪_2 小时前
运维笔记-网络共享
运维·笔记·网络共享
浩瀚地学3 小时前
【Java】异常
java·开发语言·经验分享·笔记·学习
Groundwork Explorer3 小时前
WSL Python Kivy Buildozer APK打包笔记
笔记
gravity_w3 小时前
UV常用命令总结
经验分享·笔记·uv
koo3644 小时前
pytorch深度学习笔记9
pytorch·笔记·深度学习
日更嵌入式的打工仔4 小时前
Ehercat代码解析中文摘录<9>
笔记·ethercat
看见繁华5 小时前
Linux 交叉编译实践笔记
linux·运维·笔记
im_AMBER6 小时前
Leetcode 99 删除排序链表中的重复元素 | 合并两个链表
数据结构·笔记·学习·算法·leetcode·链表
创作者mateo6 小时前
PyTorch 入门笔记配套【完整练习代码】
人工智能·pytorch·笔记