出现的问题
安装 flash-attn
会一直卡在 build
那一步或者运行报错
解决办法
是因为你安装的 flash-attn
版本没有对应上,所以报错,到 https://github.com/Dao-AILab/flash-attention/releases 下载对应版本,cu
、torch
、cp
的版本一定要对应上,下载完成后执行 pip instlal xxx.whl
安装它即可
安装 flash-attn
会一直卡在 build
那一步或者运行报错
是因为你安装的 flash-attn
版本没有对应上,所以报错,到 https://github.com/Dao-AILab/flash-attention/releases 下载对应版本,cu
、torch
、cp
的版本一定要对应上,下载完成后执行 pip instlal xxx.whl
安装它即可