flash-attn

love530love11 小时前
人工智能·windows·python·flash_attn·flash-attn·flash-attention·定制编译
【高阶编译】Windows 环境下强制编译 Flash Attention:绕过 CUDA 版本不匹配高阶指南你需要为博客写一段 Flash Attention 的简介,我会兼顾通俗性和专业性,既让非技术读者理解核心价值,也让技术读者get到关键亮点,适合放在博客开篇或核心概念解读部分:
love530love1 个月前
人工智能·windows·笔记·编译·flash_attn·flash-attn·flash-attention
Windows 11 下再次成功本地编译 Flash-Attention 2.8.3 并生成自定义 Wheel(RTX 3090 sm_86 专属版)发布时间:2025年12月29日Flash Attention 2.6.3 在 Windows 上编译成功复盘笔记
love530love1 个月前
人工智能·windows·python·aigc·flash-attn·z-image·cuda加速
Windows 11 下 Z-Image-Turbo 完整部署与 Flash Attention 2.8.3 本地编译复盘日期:2025年12月28日环境:Windows 11 + RTX 3090 + PyTorch 2.9.1+cu130
笑稀了的野生俊7 个月前
linux·人工智能·ubuntu·大模型·glibc·flash-attn
ImportError: /lib/x86_64-linux-gnu/libc.so.6: version GLIBC_2.32‘ not found简介:在复现 VLM-R1 项目并尝试将其中的 GRPO 算法应用到自己的任务时,按照官方文档配置好环境后,运行过程中遇到了一个非常离谱的错误: ImportError: /lib/x86_64-linux-gnu/libc.so.6: version GLIBC_2.32' not found 这个问题极为冷门,卡了我整整五个小时,GPT 和网上的大多数解决方案都无效,最终才通过查阅大量 GitHub issues,定位到是 flash-attn 库与当前系统 GLIBC 版本不兼容导致的,才成功解决。
我是有底线的