【python】flash-attn安装

这个命令:

确保使用正确的 CUDA 12.6 工具链

设置必要的 CUDA 环境变量

包含了常见的 GPU 架构支持

利用你的128核心进行并行编译

复制代码
# 清理之前的安装
proxychains4 pip uninstall -y flash-attn

# 获取 CUDA 路径
CUDA_PATH=$(dirname $(dirname $(which nvcc)))

# 使用 proxychains4 安装
CUDA_HOME=$CUDA_PATH \
TORCH_CUDA_ARCH_LIST="8.0;8.6;8.9;9.0" \
MAKEFLAGS="-j128" \
CMAKE_BUILD_PARALLEL_LEVEL=128 \
CMAKE_GENERATOR="Ninja" \
CFLAGS="-march=native -O3" \
CXXFLAGS="-march=native -O3" \
proxychains4 pip install flash-attn --no-build-isolation

# 如果上面失败,可以尝试这个备选命令(从源码安装)
CUDA_HOME=$CUDA_PATH \
TORCH_CUDA_ARCH_LIST="8.0;8.6;8.9;9.0" \
MAKEFLAGS="-j128" \
CMAKE_BUILD_PARALLEL_LEVEL=128 \
CMAKE_GENERATOR="Ninja" \
CFLAGS="-march=native -O3" \
CXXFLAGS="-march=native -O3" \
proxychains4 pip install git+https://github.com/Dao-AILab/flash-attention.git
相关推荐
代码or搬砖13 分钟前
HashMap源码
开发语言·python·哈希算法
星辰_mya15 分钟前
reids哨兵集群与选主
java·开发语言
期待のcode17 分钟前
Java的多态
java·开发语言
证能量少女1 小时前
2026大专Java开发工程师,考什么证加分?
java·开发语言
芒克芒克1 小时前
Java集合框架总结(面试八股)
java·开发语言·面试
顽强卖力1 小时前
第二章:什么是数据分析师?
笔记·python·职场和发展·学习方法
ejjdhdjdjdjdjjsl2 小时前
C#文件流操作技巧
java·开发语言·spring
lkbhua莱克瓦242 小时前
反射3-反射获取构造方法
java·开发语言·反射
wanghowie2 小时前
02.04.01 Java Stream API 进阶指南:从底层实现到性能优化
java·开发语言·性能优化
superman超哥2 小时前
仓颉元编程进阶:编译期计算能力的原理与深度实践
开发语言·后端·仓颉编程语言·仓颉·仓颉语言·仓颉元编程·编译器计算能力