如何解决 pip install flash-attention 报错 需要 SM_80+(Ampere)架构 问题“明明代码没问题,pip install 却死活装不上?”在 AI 大模型开发中,Flash Attention 已成为加速 Transformer 训练的必备组件。然而在 PyCharm 控制台 执行 pip install flash-attention 时,很多开发者会遇到 RuntimeError: FlashAttention only supports Ampere GPUs or newer (sm >= 80) 或 No kernel image is available for exec