【bugfix】安装 flash-attn 报错

目录

[1. 报错信息](#1. 报错信息)

[2. 解决方法](#2. 解决方法)


安装 flash attention 报错

1. 报错信息

Building wheel for flash-attn (setup.py) ... error error: subprocess-exited-with-error ×

或者

Building wheel for flash-attn (pyproject.toml) did not run successfully

甚至更多问题。

2. 解决方法

手动下载 wheel

复制代码
https://github.com/Dao-AILab/flash-attention/releases/download/v2.3.3/flash_attn-2.3.3+cu122torch2.1cxx11abiFALSE-cp38-cp38-linux_x86_64.whl

然后

复制代码
pip install flash_attn-2.3.3+cu122torch2.1cxx11abiFALSE-cp38-cp38-linux_x86_64.whl
相关推荐
新知图书5 小时前
FastGPT简介
人工智能·ai agent·智能体·大模型应用开发·大模型应用
Dev7z5 小时前
基于Matlab卷积神经网络的交通警察手势识别方法研究与实现
人工智能·神经网络·cnn
元拓数智6 小时前
IntaLink:破解数仓建设痛点,重塑高效建设新范式
大数据·数据仓库·人工智能·数据关系·intalink
区块链小八歌6 小时前
从电商收入到链上资产:Liquid Royalty在 Berachain 重塑 RWA 想象力
大数据·人工智能·区块链
沃达德软件6 小时前
大数据反诈平台功能解析
大数据·人工智能
OAoffice6 小时前
智能学习培训考试平台如何驱动未来组织:重塑人才发展格局
人工智能·学习·企业智能学习考试平台·学练考一体化平台
岁月宁静6 小时前
LangChain + LangGraph 实战:构建生产级多模态 WorkflowAgent 的完整指南
人工智能·python·agent
Java中文社群6 小时前
重磅!N8N新版2.0发布!不再支持MySQL?
人工智能
梯度下降不了班7 小时前
【mmodel/xDit】Cross-Attention 深度解析:文生图/文生视频的核心桥梁
人工智能·深度学习·ai作画·stable diffusion·音视频·transformer