技术栈

flash attention

love530love
2 天前
人工智能·windows·笔记·python·flash_attn·flash attention·z-image
Flash Attention 2.8.3 在 Windows + RTX 3090 上成功编译与运行复盘笔记(2026年1月版)作者:AITechLab日期:2026年1月7日环境:Windows 11 + RTX 3090 + PyTorch 2.9.1+cu130 + Python 3.10.18
爱听歌的周童鞋
10 个月前
attention·self-attention·flash attention
Flash Attention原理讲解看了几个视频和几篇文章学习了下 Flash Attention,记录下个人学习笔记,仅供自己参考😄refer1:Flash Attention 为什么那么快?原理讲解
我的龙呢
1 年前
人工智能·flash attention
Flash AttentionFlash Attention 是一种针对 Transformer 模型 优化的高效注意力计算方法。与传统注意力机制相比,它通过 分块计算、显存优化 和 数值稳定性改进,实现了在 长序列任务 中的显著加速,同时大幅降低了显存占用。
我是有底线的