技术栈
flash_attn
love530love
11 小时前
人工智能
·
windows
·
python
·
flash_attn
·
flash-attn
·
flash-attention
·
定制编译
【高阶编译】Windows 环境下强制编译 Flash Attention:绕过 CUDA 版本不匹配高阶指南
你需要为博客写一段 Flash Attention 的简介,我会兼顾通俗性和专业性,既让非技术读者理解核心价值,也让技术读者get到关键亮点,适合放在博客开篇或核心概念解读部分:
love530love
1 个月前
人工智能
·
windows
·
笔记
·
python
·
flash_attn
·
flash attention
·
z-image
Flash Attention 2.8.3 在 Windows + RTX 3090 上成功编译与运行复盘笔记(2026年1月版)
作者:AITechLab日期:2026年1月7日环境:Windows 11 + RTX 3090 + PyTorch 2.9.1+cu130 + Python 3.10.18
love530love
1 个月前
人工智能
·
windows
·
笔记
·
编译
·
flash_attn
·
flash-attn
·
flash-attention
Windows 11 下再次成功本地编译 Flash-Attention 2.8.3 并生成自定义 Wheel(RTX 3090 sm_86 专属版)
发布时间:2025年12月29日Flash Attention 2.6.3 在 Windows 上编译成功复盘笔记
万里鹏程转瞬至
1 年前
python
·
深度学习
·
flash_attn
win10下cuda12.1 +troch2.4.1+vs2022环境下编译安装flash-attn
步骤一 下载项目 先下载 https://github.com/Dao-AILab/flash-attention,然后在conda环境中进入项目目录
我是有底线的