【python】flash-attn安装

这个命令:

确保使用正确的 CUDA 12.6 工具链

设置必要的 CUDA 环境变量

包含了常见的 GPU 架构支持

利用你的128核心进行并行编译

复制代码
# 清理之前的安装
proxychains4 pip uninstall -y flash-attn

# 获取 CUDA 路径
CUDA_PATH=$(dirname $(dirname $(which nvcc)))

# 使用 proxychains4 安装
CUDA_HOME=$CUDA_PATH \
TORCH_CUDA_ARCH_LIST="8.0;8.6;8.9;9.0" \
MAKEFLAGS="-j128" \
CMAKE_BUILD_PARALLEL_LEVEL=128 \
CMAKE_GENERATOR="Ninja" \
CFLAGS="-march=native -O3" \
CXXFLAGS="-march=native -O3" \
proxychains4 pip install flash-attn --no-build-isolation

# 如果上面失败,可以尝试这个备选命令(从源码安装)
CUDA_HOME=$CUDA_PATH \
TORCH_CUDA_ARCH_LIST="8.0;8.6;8.9;9.0" \
MAKEFLAGS="-j128" \
CMAKE_BUILD_PARALLEL_LEVEL=128 \
CMAKE_GENERATOR="Ninja" \
CFLAGS="-march=native -O3" \
CXXFLAGS="-march=native -O3" \
proxychains4 pip install git+https://github.com/Dao-AILab/flash-attention.git
相关推荐
前进的李工10 小时前
MySQL用户管理与权限控制指南(含底层架构说明)
开发语言·数据库·sql·mysql·架构
少司府10 小时前
C++基础入门:类和对象(中)
c语言·开发语言·c++·类和对象·运算符重载·默认成员函数
gogogo出发喽10 小时前
使用Pear Admin Flask
后端·python·flask
橘子编程10 小时前
操作系统原理:从入门到精通全解析
java·linux·开发语言·windows·计算机网络·面试
唔6610 小时前
原生 Android(Kotlin)仅串口「继承架构」完整案例二
android·开发语言·kotlin
错把套路当深情11 小时前
Kotlin 全方向开发技术栈指南
开发语言·kotlin
与虾牵手11 小时前
Python asyncio 踩了一周坑,我把能犯的错全犯了一遍
python
飞Link11 小时前
LangGraph 核心架构解析:节点 (Nodes) 与边 (Edges) 的工作机制及实战指南
java·开发语言·python·算法·架构
资深设备全生命周期管理11 小时前
EXE Ver 适用于 未安装Python 以及包的Windows OS
python
武藤一雄11 小时前
WPF中ViewModel之间的5种通讯方式
开发语言·前端·microsoft·c#·wpf