技术栈

flash_attn

万里鹏程转瞬至
9 个月前
python·深度学习·flash_attn
win10下cuda12.1 +troch2.4.1+vs2022环境下编译安装flash-attn步骤一 下载项目 先下载 https://github.com/Dao-AILab/flash-attention,然后在conda环境中进入项目目录