[ExecuTorch 系列] 2. 导出官方支持的大语言模型

前提条件

确保已经安装了 ExecuTorch。安装教程:[ExecuTorch 系列] 1. 从源码构建 ExecuTorch

LLM 导出功能需要 pytorch_tokenizers 包。如果遇到 ModuleNotFoundError: No module named 'pytorch_tokenizers' 错误,请从 ExecutorTorch 源代码安装:

bash 复制代码
pip install pytorch-tokenizers

# 从源码安装
pip install -e ./extension/llm/tokenizers/

支持的模型列表

具体支持的 LLM 模型列表可以从这里找到。

  • Llama 2/3/3.1/3.2
  • Qwen 2.5/3
  • Phi 3.5/4-mini
  • SmolLM2
  • ...

注: 如果需要导出不在列表中或其他模型架构(如 Gemma、Mistral、BERT、T5、Whisper 等)中的模型,请参阅 Exporting LLMs with Optimum,该页面支持 Hugging Face Hub 中更多种类的模型。

export_llm API

export_llm 是 ExecuTorch 为 LLM 提供的高级导出 API。我们重点介绍使用该 API 导出 Llama 3.2 1Bexport_llm 的参数可以通过CLI argsyaml 配置指定,Yaml 配置字段在 LlmConfig 中定义。调用export_llm

bash 复制代码
python -m executorch.examples.extension.llm.export.export_llm
  --config <path-to-config-yaml>
  +base.<additional-CLI-overrides>

# 例如
python -m extension.llm.export.export_llm --config ~/models/Llama/Llama-3.2-1B/config.yaml

基础导出

要进行 Llama3.2 的基础导出,我们首先需要下载检查点文件(consolidated.00.pth)和参数文件(params.json)。可以在 Llama 官网Hugging Face 上找到这些。

Llama 官网Hugging Face 上下载 Llama 系列模型都需要申请,而填中国身份申请基本就是被拒绝,可以通过下面的方法下载:

bash 复制代码
pip install modelscope
modelscope download --model LLM-Research/Llama-3.2-1B

然后,指定 model_classcheckpoint(通往检查点文件的路径)和params(指向参数文件的路径)作为参数。此外,后续当使用 Runner APIs 运行导出的 .pte 时,Runner 需要知道该模型的 boseos ID,才能知道何时终止。这些方法通过 .pte 中的 boseos 获取方法暴露,我们可以通过在metadata参数中指定 boseos ID 来添加。这些 Tokens 的值通常可以在 HuggingFace 上模型的tokenizer_config.json 中找到。

yaml 复制代码
# path/to/config.yaml
base:
  model_class: llama3_2
  checkpoint: path/to/consolidated.00.pth
  params: path/to/params.json
  metadata: '{"get_bos_id":128000, "get_eos_ids":[128009, 128001]}'

# export_llm
python -m extension.llm.export.export_llm \
  --config path/to/config.yaml

对于支持的其他 LLMs,checkpoint 将从 HuggingFace 自动下载,参数文件可在 executorch/examples/models 下各自的目录中找到,例如:executorch/examples/models/qwen3/config/0_6b_config.json

导出设置

ExportConfig 包含导出 .pte 的设置,如 max_seq_length(提示词最大长度)和 max_context_length(模型内存/缓存的最大长度)。

添加优化

export_llm 会在导出前、导出过程中和降低(Lowering)过程中对模型进行多种优化。量化向加速器后端委派 是主要的优化方式,其他所有优化都可以在 ModelConfig 里找到。

yaml 复制代码
# path/to/config.yaml
base:
  model_class: llama3_2
  checkpoint: path/to/consolidated.00.pth
  params: path/to/params.json
  metadata: '{"get_bos_id":128000, "get_eos_ids":[128009, 128001]}'
model:
  use_kv_cache: True
  use_sdpa_with_kv_cache: True

# export_llm
python -m extension.llm.export.export_llm \
  --config path/to/config.yaml

推荐使用 use_kv_cacheuse_sdpa_with_kv_cache 来导出任何 LLM,其他选项则在特定情况下有用。例如:

  • use_shared_embedding 对于具有绑定的输入/输出嵌入层的模型会有帮助,前提是你使用 TorchAO 低比特运算进行量化( quantization.qmode: torchao:8da(\\d+)wquantization.qmode: torchao:fpa(\d+)w ),详见这里
  • use_attention_sink 当达到最大上下文长度时,通过从 KV cache 的开头移除内容来延长生成(过程)。
  • quantize_kv_cache 在 int8 中量化 KV cache。
  • local_global_attention 实现了 局部 - 全局注意力机制,使特定的注意力层能够使用小得多的局部滑动窗口 KV cache。

量化

量化选项由 QuantizationConfig 定义。ExecuTorch通过两种方式进行量化:

  1. TorchAO quantize API
  2. pt2e quantization

TorchAO (XNNPACK)

TorchAO 在源码层面进行量化,将线性模块替换为量化线性模块。 要在 XNNPACK 后端上进行量化,这是应遵循的量化路径。量化模式定义于此处

常见的有:

  • 8da4w:wint8 动态激活 + int4 权重量化的缩写。
  • int8:int8 仅权重量化。

组大小的指定方式如下:

  • group_size:8、32、64 等。

对于 Arm CPU,也有用于 int8 动态激活 + int[1-8] 权重量化的 低比特内核。请注意,不应将其与 XNNPACK 一起使用,并且通过实验我们发现,对于等效的 8da4w,其性能有时甚至会更好。使用这些条件时,需将qmode指定为以下任一:

  • torchao:8da(\d+)w: int8 动态激活 + int[1-8] 权重,例如 torchao:8da5w
  • torchao:fpa(\d+)w: 仅 int[1-8] 权重,例如 torchao:fps4w

要量化 embeddings,可以指定 embedding_quantize: <bitwidth>,<groupsize>bitwidth必须为 2、4 或 8),对于低比特内核则使用 embedding_quantize: torchao:<bitwidth>,<groupsize>bitwidth可以是 1 到 8)。

yaml 复制代码
# path/to/config.yaml
base:
  model_class: llama3_2
  checkpoint: path/to/consolidated.00.pth
  params: path/to/params.json
  metadata: '{"get_bos_id":128000, "get_eos_ids":[128009, 128001]}'
model:
  use_kv_cache: True
  use_sdpa_with_kv_cache: True
quantization:
  embedding_quantize: 4,32
  qmode: 8da4w

# export_llm
python -m extension.llm.export.export_llm \
  --config path/to/config.yaml

pt2e (QNN, CoreML, and Vulkan)

pt2e 在导出后图层面进行量化,交换节点并注入量化/解量化节点。 对于非 CPU 后端(QNN、CoreML、Vulkan)进行量化,这就是应遵循的量化路径。 阅读更多关于 pt2e 的内容请见此处,以及 ExecuTorch 如何使用 pt2e 请见此处

后端支持

后端选项由 BackendConfig 定义。每个后端都有自己的后端配置选项。这里有一个将 LLM 降为 XNNPACK 以实现 CPU 加速的示例:

yaml 复制代码
# path/to/config.yaml
base:
  model_class: llama3_2
  checkpoint: path/to/consolidated.00.pth
  params: path/to/params.json
  metadata: '{"get_bos_id":128000, "get_eos_ids":[128009, 128001]}'
model:
  use_kv_cache: True
  use_sdpa_withp_kv_cache: True
quantization:
  embedding_quantize: 4,32
  qmode: 8da4w
backend:
  xnnpack:
    enabled: True
    extended_ops: True  # Expand the selection of ops delegated to XNNPACK.

性能分析和调试

要查看哪些操作被委派到后端,哪些没有,请指定verbose: True

yaml 复制代码
# path/to/config.yaml
...
debug:
  verbose: True
...

在日志中,会有一个表格,包含图中的所有运算操作,以及哪些被委派了,哪些没有被委派。

例如:

更具体的信息,参见 此处

参考文档

  1. PyTorch - Exporting LLMs
相关推荐
颜大哦1 小时前
openclaw安装windows
人工智能
阿里云大数据AI技术1 小时前
最强打工外挂:教你在PAI-EAS用CoPaw打造专属AI助理
人工智能·agent
~央千澈~1 小时前
从核心本质问题讲:完全没有必要跟风去养“虾”
人工智能
恋猫de小郭1 小时前
AI 时代的工程师需要具备什么能力?Augment Code 给出了他们的招聘标准
前端·人工智能·ai编程
胡摩西2 小时前
毫米级精准定位如何实现机器人自动回充:技术原理与工程实现
人工智能·机器学习·机器人·slam·室内定位·agv·roomaps
国家一级摸鱼选手2 小时前
MCP(Model Context Protocol)学习笔记
unity·ai·mcp
高洁012 小时前
学习基于数字孪生的质量预测与控制
人工智能·python·深度学习·数据挖掘·transformer
上海蓝色星球2 小时前
造价机器人CER V2.0正式上线!
大数据·人工智能·智慧城市·运维开发
CeshirenTester2 小时前
2026春招规则彻底变了,应届生必须看懂这4个信号
人工智能