技术栈
flash_attn
万里鹏程转瞬至
1 个月前
python
·
深度学习
·
flash_attn
win10下cuda12.1 +troch2.4.1+vs2022环境下编译安装flash-attn
步骤一 下载项目 先下载 https://github.com/Dao-AILab/flash-attention,然后在conda环境中进入项目目录