技术栈
flash attention
love530love
2 天前
人工智能
·
windows
·
笔记
·
python
·
flash_attn
·
flash attention
·
z-image
Flash Attention 2.8.3 在 Windows + RTX 3090 上成功编译与运行复盘笔记(2026年1月版)
作者:AITechLab日期:2026年1月7日环境:Windows 11 + RTX 3090 + PyTorch 2.9.1+cu130 + Python 3.10.18
爱听歌的周童鞋
10 个月前
attention
·
self-attention
·
flash attention
Flash Attention原理讲解
看了几个视频和几篇文章学习了下 Flash Attention,记录下个人学习笔记,仅供自己参考😄refer1:Flash Attention 为什么那么快?原理讲解
我的龙呢
1 年前
人工智能
·
flash attention
Flash Attention
Flash Attention 是一种针对 Transformer 模型 优化的高效注意力计算方法。与传统注意力机制相比,它通过 分块计算、显存优化 和 数值稳定性改进,实现了在 长序列任务 中的显著加速,同时大幅降低了显存占用。
我是有底线的