【bugfix】安装 flash-attn 报错

目录

[1. 报错信息](#1. 报错信息)

[2. 解决方法](#2. 解决方法)


安装 flash attention 报错

1. 报错信息

Building wheel for flash-attn (setup.py) ... error error: subprocess-exited-with-error ×

或者

Building wheel for flash-attn (pyproject.toml) did not run successfully

甚至更多问题。

2. 解决方法

手动下载 wheel

复制代码
https://github.com/Dao-AILab/flash-attention/releases/download/v2.3.3/flash_attn-2.3.3+cu122torch2.1cxx11abiFALSE-cp38-cp38-linux_x86_64.whl

然后

复制代码
pip install flash_attn-2.3.3+cu122torch2.1cxx11abiFALSE-cp38-cp38-linux_x86_64.whl
相关推荐
Peter·Pan爱编程1 分钟前
第五篇:Windsurf(Codeium)解析 —— Cascade 与 “Flow” 状态的工作流对比
人工智能·ai编程
沪漂阿龙2 分钟前
大模型微调终极指南:从显存优化到高效推理,一文吃透所有核心技术
人工智能·面试
李威1410 分钟前
AI替代程序员真的来了!但有办法,别慌
人工智能
DreamWear11 分钟前
Prompt Master:一个帮你写 Prompt 的 Claude Skill
人工智能
WJJAGI11 分钟前
hermes+pentagi进行渗透测试
人工智能·面试
vanuan12 分钟前
AI 编程铁三角:03 Harness Engineering 入门
人工智能
周末程序猿16 分钟前
技术总结|十分钟了解GEO
人工智能·aigc
guo_xiao_xiao_16 分钟前
YOLOv11海上多场景船只目标检测数据集-980张-Boat-1
人工智能·yolo·目标检测
周末程序猿17 分钟前
技术总结|十分钟了解大模型投毒
人工智能·aigc
漫游的渔夫18 分钟前
前端开发者做 Agent:模型说执行就执行?先加 3 道闸门再碰真实业务
前端·人工智能·typescript