transformer 优化笔记 持续更新

目录

[方案2:安装 xformers(推荐)](#方案2:安装 xformers(推荐))

[🚀 核心作用:更高效地计算注意力](#🚀 核心作用:更高效地计算注意力)

xfusers

[💡 为什么需要 xfusers?](#💡 为什么需要 xfusers?)


方案2:安装 xformers(推荐)

复制代码

pip install xformers

然后代码里:

python 复制代码
torch.backends.cuda.enable_mem_efficient_sdp(True)

xformers 是一个由 Meta AI (Facebook Research) 开发的,专门用于优化和加速 Transformer 模型的高性能工具库。你可以把它理解为一套为 Transformer 模型设计的"性能改装件"。

它最核心的价值体现在两点:显著提升运行速度大幅降低显存占用

🚀 核心作用:更高效地计算注意力

Transformer 模型中最消耗计算资源的环节就是"多头注意力"(Multi-Head Attention)机制。xformers 通过提供更优的计算方式,实现了"又快又省"。

核心优势 具体表现 实际价值
⚡ 更快的速度 使用了比如FlashAttention、内存高效注意力等优化的计算方式 能让你更快地训练模型更快地生成图片/文本,有时能带来数倍的加速
💾 更省的显存 采用融合算子(Fused Ops)、稀疏注意力等策略,大大降低计算过程中的显存开销 可以让你在有限的GPU显存下,运行更大的模型 ,或者生成更高分辨率的图像(如在Stable Diffusion中)

xfusers

xfusers 是一个专门用于大规模加速 Diffusion Transformer(DiT)模型推理 的高性能库。它和之前讨论的 xformers 算是"师出同门",但专注的方向很不一样:

  • xformers:主要优化单张显卡上的注意力机制计算,目标是让模型"跑得更快、更省显存"。

  • xfusers:主要解决如何在多张显卡上并行跑大模型的问题,目标是突破单卡显存和算力的极限。

简单来说,xformers 像给一辆车换上了更高效的发动机,而 xfusers 则是让你可以把好几辆车的动力并在一起,去拖动一个超级重的货柜。

💡 为什么需要 xfusers?

Flux、Stable Diffusion 3 这类最新的 DiT 模型,在处理高分辨率图像或长视频时,计算量会爆炸式增长,单张显卡可能"爆显存"或者速度极慢。

xfusers 的目标就是解决这个问题,它通过多种并行计算策略,把模型的计算任务拆分到多张GPU上同时进行。

相关推荐
代码丰21 分钟前
Github高赞项目50K learn-claude-code 的学习笔记总结
笔记·学习·github
三品吉他手会点灯26 分钟前
C语言学习笔记 - 18.C编程预备计算机专业知识 - 什么是变量
c语言·开发语言·笔记·学习
被放养的研究生41 分钟前
WPS 通配符神技:一键上标参考文献 + 中英文自动加空格
笔记·排版·wps·通配符
李李李勃谦1 小时前
基于鸿蒙PC多窗口特性的笔记管理工具开发实践
笔记·华为·harmonyos
智者知已应修善业2 小时前
【触发器种类和真值表】2023-7-5
驱动开发·经验分享·笔记·硬件架构·硬件工程
深蓝海拓2 小时前
Qt:创建一套基于HSL颜色体系的颜色库
笔记·python·qt·学习·ui
九思十安3 小时前
HNU2026-计算机系统-笔记 3 HelloWorld
jvm·笔记
Ting.~3 小时前
GIT详解
java·笔记·git
维吉斯蔡3 小时前
【计算机是怎样跑起来的】(二)CPU、内存、I/O 和总线到底是什么?
笔记·stm32·单片机·物联网·计算机外设·51单片机
zhangrelay3 小时前
三分钟云课实践速通--概率统计--python版
linux·开发语言·笔记·python·学习·ubuntu