Ubuntu 20.04, cuda 12.1版本安装flash attention 2教程

在安装flash attention2的过程中,采了好多坑。因此记录一个帖子,写一下怎么安装flash attention 2。

首先,确认自己环境里的各个配置版本是啥,比如我的环境中:

python:3.10.0

cuda: 12.1

torch:2.5.1

然后,去flash attention 2的github官网,找对应的版本,网页链接:https://github.com/Dao-AILab/flash-attention/tags

然后开始找你对应的版本,黄框要和你的环境对应:

然后,我这边没有直接从官网下,而是找到对应版本后,在终端下载:

bash 复制代码
pip install flash-attn==2.7.4.post1 --no-build-isolation

下载完毕后,运行,看效果:

相关推荐
Boop_wu10 小时前
[Java 算法] 字符串
linux·运维·服务器·数据结构·算法·leetcode
SkyXZ~12 小时前
Jetson有Jtop,Linux有Htop,RDK也有Dtop!
linux·运维·服务器·rdkx5·rdks100·dtop
starvapour13 小时前
Ubuntu系统下基于终端的音频相关命令
linux·ubuntu·音视频
杨云龙UP14 小时前
Oracle Data Pump实战:expdp/impdp常用参数与导入导出命令整理_20260406
linux·运维·服务器·数据库·oracle
浪客灿心14 小时前
线程同步与互斥
linux
想唱rap14 小时前
线程池以及读写问题
服务器·数据库·c++·mysql·ubuntu
牛马鸡niumasi16 小时前
C/C++ 程序编译过程、静态/动态链接、静态/动态库
linux
捧月华如17 小时前
Linux 系统性能压测工具全景指南(含工程实战)
linux·运维·服务器
YMWM_17 小时前
export MPLBACKEND=Agg命令使用
linux·python