【bugfix】安装 flash-attn 报错

目录

[1. 报错信息](#1. 报错信息)

[2. 解决方法](#2. 解决方法)


安装 flash attention 报错

1. 报错信息

Building wheel for flash-attn (setup.py) ... error error: subprocess-exited-with-error ×

或者

Building wheel for flash-attn (pyproject.toml) did not run successfully

甚至更多问题。

2. 解决方法

手动下载 wheel

复制代码
https://github.com/Dao-AILab/flash-attention/releases/download/v2.3.3/flash_attn-2.3.3+cu122torch2.1cxx11abiFALSE-cp38-cp38-linux_x86_64.whl

然后

复制代码
pip install flash_attn-2.3.3+cu122torch2.1cxx11abiFALSE-cp38-cp38-linux_x86_64.whl
相关推荐
Codebee12 分钟前
SkillFlow:回归本质的AI能力流程管控
人工智能
巫山老妖29 分钟前
2026 年 AI 趋势深度研究报告
人工智能
CodeLove·逻辑情感实验室41 分钟前
深度解析:当 NLP 试图解构爱情——情感计算(Affective Computing)的伦理边界与技术瓶颈
人工智能·深度学习·自然语言处理·赛朋克
少林码僧1 小时前
2.9 字段分箱技术详解:连续变量离散化,提升模型效果的关键步骤
人工智能·ai·数据分析·大模型
互联网工匠1 小时前
从冯·诺依曼架构看CPU和GPU计算的区别
人工智能·gpu算力
爱笑的眼睛111 小时前
超越可视化:降维算法组件的深度解析与工程实践
java·人工智能·python·ai
GISer_Jing1 小时前
AI Agent 目标设定与异常处理
人工智能·设计模式·aigc
Fnetlink11 小时前
AI+零信任:关键基础设施安全防护新范式
人工智能·安全
njsgcs2 小时前
SIMA2 论文阅读 Google 任务设定器、智能体、奖励模型
人工智能·笔记
机器之心2 小时前
2026年,大模型训练的下半场属于「强化学习云」
人工智能·openai