【文献阅读】Optimum Quanto:量化工作流与数学公式整合笔记

整合自 Hugging Face 官方文档:Quanto 介绍博客https://github.com/huggingface/blog/blob/main/quanto-introduction.md
Quanto 官方 READMEhttps://github.com/huggingface/optimum-quanto/blob/main/README.md
Transformers 集成文档https://github.com/huggingface/transformers/blob/main/docs/source/en/quantization/quanto.md
Optimum 量化概念指南https://github.com/huggingface/optimum/blob/clap/docs/source/concept_guides/quantization.mdx

1. 什么是 Optimum Quanto?

Optimum Quanto 是 Hugging Face 推出的量化库,专注于设备无关的线性量化,支持对模型权重(及实验性激活)进行低精度压缩,适配多模态模型(大语言模型、视觉模型、扩散模型)。它原生集成于 Hugging Face 生态(Transformers/Diffusers),支持多种低精度数据类型(float8、int8、int4、int2)。

2. 量化工作流

步骤 1:定义量化配置

创建QuantoConfig指定量化参数(目标精度、量化范围等):

python

复制代码
from transformers import QuantoConfig
quant_config = QuantoConfig(weights="int8")  # 目标权重精度(可选int8/int4/int2/float8)

核心配置项(来自 Transformers 文档):

  • weights:模型权重的目标数据类型(必填)
  • activations:激活的目标数据类型(实验性支持)
  • quantize_bias:是否量化偏置张量(默认:False

步骤 2:加载带量化的模型

在模型加载阶段通过from_pretrained()应用量化(生态无缝集成):

python

复制代码
from transformers import AutoModelForCausalLM

model = AutoModelForCausalLM.from_pretrained(
    "meta-llama/Llama-3.1-8B",
    torch_dtype="auto",       # 自动匹配模型原始数据类型
    device_map="auto",        # 自动将模型分配到可用设备
    quantization_config=quant_config  # 关联Quanto量化配置
)

Quanto 会在加载过程中自动完成权重量化,无需手动处理权重。

步骤 3:量化推理

模型以量化权重运行推理:

  • 计算过程中:量化权重会按需实时反量化(适用于通用设备),或通过优化的量化核(如 GPU 端的 Marlin/TinyGEMM)直接计算。
  • 输出接口:与未量化模型完全一致,无需修改推理代码。

3. 核心数学公式

Quanto 的基础是对称线性量化(轻量、设备无关),同时整合 HQQ(半二次量化)以降低低比特(int4/int2)量化的误差。

3.1 对称线性量化(Quanto 基础)

针对浮点张量 x(如模型权重):

1. 计算量化尺度(s)

尺度用于将浮点值映射到目标量化数据类型的范围:\(s = \frac{\text{max}(|x|)}{\text{目标数据类型的最大绝对值}}\)其中:

  • \(\text{max}(|x|)\):原始浮点张量的最大绝对值
  • 目标数据类型的最大绝对值:如 int8 为 127、int4 为 7、int2 为 1、float8_e4m3fn 为 127
2. 量化步骤

将浮点值转换为量化整数:\(x_q = \text{取整}\left( \frac{x}{s} \right)\)将 \(x_q\) 裁剪到目标数据类型的有效范围(如 int8 裁剪至\([-127, 127]\)),避免溢出。

3. 反量化步骤(实时计算)

恢复近似浮点值以进行计算:\(x_{\text{反量化}} = s \cdot x_q\)

3.2 整合 HQQ 优化(低比特量化)

针对 int4/int2 等高压缩场景,Quanto 用 HQQ 最小化重建误差,增加二次正则项:\(\arg\min_{x_q} \sum_i \left( x_i - s \cdot x_{q,i} \right)^2 + \lambda \cdot R(x_q)\)其中:

  • \(R(x_q)\):正则项(强化量化约束)
  • \(\lambda\):正则系数(平衡重建精度与量化有效性)

4. 关键特性

  • 多精度支持:权重支持 float8/int8/int4/int2;激活实验性支持 float8
  • 设备无关性:适配 CPU、GPU(NVIDIA/AMD)及边缘设备,无需硬件专属代码
  • 生态原生 :与AutoModel/from_pretrained无缝集成,无需自定义模型包装器
  • 模态灵活性:支持大语言模型、视觉模型(如 ViT)、扩散模型(如 Stable Diffusion)
相关推荐
王莽v26 小时前
FlexRound:基于逐元素除法的可学习舍入后训练量化方法
人工智能
爱思德学术7 小时前
【IEEE会议】第三届智能计算与机器人国际会议(ICICR 2026)
人工智能·机器学习·机器人
楚来客7 小时前
AI基础概念之七:一个AI应用的基本架构
人工智能·架构
沛沛老爹7 小时前
用 Web 开发思维理解 Agent 的三大支柱——Tools + Memory + LLM
java·人工智能·llm·llama·rag
光羽隹衡7 小时前
深度学习----PyTorch框架(手写数字识别案例)
人工智能·pytorch·深度学习
GeminiJM7 小时前
我的 MCP 学习之旅:从困惑到理解
人工智能·mcp
Hubianji_097 小时前
2026第7届人工智能与计算机应用国际会议
人工智能·能源·国际会议
Jerryhut7 小时前
opencv总结9——答题卡识别
人工智能·opencv·计算机视觉
DB!!!7 小时前
cube-studio手动部署label_studio至“标注平台”(启动企业版的功能)
人工智能·机器学习·rancher·mlops
掘金酱7 小时前
TRAE 2025 年度报告分享活动|获奖名单公示🎊
前端·人工智能·后端