Ubuntu 20.04, cuda 12.1版本安装flash attention 2教程

在安装flash attention2的过程中,采了好多坑。因此记录一个帖子,写一下怎么安装flash attention 2。

首先,确认自己环境里的各个配置版本是啥,比如我的环境中:

python:3.10.0

cuda: 12.1

torch:2.5.1

然后,去flash attention 2的github官网,找对应的版本,网页链接:https://github.com/Dao-AILab/flash-attention/tags

然后开始找你对应的版本,黄框要和你的环境对应:

然后,我这边没有直接从官网下,而是找到对应版本后,在终端下载:

bash 复制代码
pip install flash-attn==2.7.4.post1 --no-build-isolation

下载完毕后,运行,看效果:

相关推荐
倔强的石头1061 天前
【Linux指南】基础IO系列(八):实战衔接 —— 给微型 Shell 添加完整重定向功能
linux·运维·服务器
try2find1 天前
打印ascii码报错问题
java·linux·前端
Ujimatsu1 天前
虚拟机安装Ubuntu 26.04.x及其常用软件(2026.4)
linux·运维·ubuntu
一直会游泳的小猫1 天前
homebrew
linux·mac·工具·包管理
寒秋花开曾相惜1 天前
(学习笔记)4.2 逻辑设计和硬件控制语言HCL(4.2.1 逻辑门&4.2.2 组合电路和HCL布尔表达式)
linux·网络·数据结构·笔记·学习·fpga开发
狂奔的sherry1 天前
一次由 mount 引发的 Linux 文件系统“错觉”
linux·运维·服务器
小黑要努力1 天前
智能音箱遇到的问题(一)
linux·运维·git
ch3nyuyu1 天前
静态库和动态库的制作
linux·运维·开发语言
豆浆煮粉1 天前
Ubuntu虚拟机对USB设备无响应且Windows主机设备管理器显示警告
windows·ubuntu
一口Linux1 天前
Linux C编程 | 从0实现telnet获取程序终端控制权
linux·运维·c语言