【TVM 教程】交叉编译与 RPC

TVM 现已更新到 0.21.0 版本,TVM 中文文档已经和新版本对齐。

Apache TVM 是一个深度的深度学习编译框架,适用于 CPU、GPU 和各种机器学习加速芯片。更多 TVM 中文文档可访问 →Apache TVM

作者Ziheng JiangLianmin Zheng

本教程介绍了在 TVM 中使用交叉编译与 RPC 进行远程设备执行的方法。

通过交叉编译与 RPC,你可以在本地机器上编译程序,并在远程设备上运行。 这对于资源有限的远程设备(如 Raspberry Pi 或移动平台)非常有用。本教程将以 Raspberry Pi 作为 CPU 示例,以 Firefly-RK3399 作为 OpenCL 示例。

在设备上构建 TVM Runtime

第一步是在远程设备上构建 TVM 运行时。

备注

本节与下一节中的所有命令都应在目标设备(例如 Raspberry Pi )上执行。我们假设目标设备运行的是 Linux 系统。

由于编译工作是在本地机器上完成的,远程设备仅用于运行生成的代码,因此只需要在远程设备上构建 TVM 的运行时部分。

复制代码
git clone --recursive https://github.com/apache/tvm tvm
cd tvm
make runtime -j2

成功构建运行时后,需要在 ~/.bashrc 文件中设置环境变量。可以使用 vi ~/.bashrc 编辑 ~/.bashrc,并添加以下行(假设你的 TVM 路径为 ~/tvm):

复制代码
export PYTHONPATH=$PYTHONPATH:~/tvm/python

然后执行source ~/.bashrc命令以更新环境变量:

在设备上启动 RPC 服务端

在远程设备上(如 Raspberry Pi )运行以下命令以启动 RPC 服务器:

复制代码
python -m tvm.exec.rpc_server --host 0.0.0.0 --port=9090

如果你看到如下输出,说明 RPC 服务器已成功启动:

复制代码
INFO:root:RPCServer: bind to 0.0.0.0:9090

在本地机器上声明并交叉编译内核

备注

现在回到本地机器,假设本地已完整安装了 TVM(带 LLVM 支持)。

在本地机器上声明一个简单的计算内核:

复制代码
import numpy as np

import tvm
from tvm import te
from tvm import rpc
from tvm.contrib import utils

n = tvm.runtime.convert(1024)
A = te.placeholder((n,), name="A")
B = te.compute((n,), lambda i: A[i] + 1.0, name="B")
mod = tvm.IRModule.from_expr(te.create_prim_func([A, B]).with_attr("global_symbol", "add_one"))

然后进行交叉编译。对于 Raspberry Pi 3B,目标应为「llvm -mtriple=armv7l-linux-gnueabihf」,但为了方便在网页构建服务器上运行示例,这里使用「llvm」作为默认目标。详细事项可参考下一块。

复制代码
local_demo = True

if local_demo:
    target = "llvm"
else:
    target = "llvm -mtriple=armv7l-linux-gnueabihf"

func = tvm.compile(mod, target=target)
# 将库保存到临时目录
temp = utils.tempdir()
path = temp.relpath("lib.tar")
func.export_library(path)

备注

如果要使用真实的远程设备运行此教程,请将 local_demo 设置为 False,并将 target 替换为适用于你设备的目标三元组。不同设备的目标三元组可能有所不同。例如,对于 Raspberry Pi 3B,目标三元组是:「llvm -mtriple=armv7l-linux-gnueabihf」;对于 RK3399,目标三元组是:「llvm -mtriple=aarch64-linux-gnu」

你可以通过在目标设备上运行 gcc -v 来查询其目标三元组,查看输出中以 Target: 开头的行(但这也可能只是一个宽松的配置)。

除了 -mtriple,你还可以设置其他编译选项,例如:

-mcpu=

指定要生成代码的具体芯片。默认情况下会根据目标三元组推断并自动检测

-mattr=a1,+a2,-a3,...

覆盖或控制目标的具体属性,例如是否启用 SIMD 操作。默认属性由当前 CPU 决定,你可以运行以下命令查看支持的属性:

llc -mtriple= -mattr=help

这些选项与 llc 工具 保持一致。建议设置目标三元组和特性集以包含具体设备可用的功能,以充分发挥硬件性能。更多交叉编译属性详见 LLVM 跨平台编译文档

通过 RPC 远程运行 CPU 内核

本节展示如何在远程设备上运行生成的 CPU 内核。首先,我们需要从远程设备获取一个 RPC 会话:

复制代码
if local_demo:
    remote = rpc.LocalSession()
else:
    # 以下是我的环境,请替换为你的目标设备的 IP 地址
    host = "10.77.1.162"
    port = 9090
    remote = rpc.connect(host, port)

接下来将生成的库上传到远程设备,然后调用设备上的编译器进行重新链接。此时 func 就是一个远程模块对象。

复制代码
remote.upload(path)
func = remote.load_module("lib.tar")

# 在远程设备上创建数组
dev = remote.cpu()
a = tvm.runtime.tensor(np.random.uniform(size=1024).astype(A.dtype), dev)
b = tvm.runtime.tensor(np.zeros(1024, dtype=A.dtype), dev)
# 函数将在远程设备上运行
func(a, b)
np.testing.assert_equal(b.numpy(), a.numpy() + 1)

当你想评估内核在远程设备上的性能时,需要避免网络传输带来的开销。time_evaluator 返回一个远程函数,该函数会运行多次并测量每次执行的耗时(不包括网络延迟):

复制代码
time_f = func.time_evaluator(func.entry_name, dev, number=10)
cost = time_f(a, b).mean
print("%g secs/op" % cost)

输出:

复制代码
1.452e-07 secs/op

通过 RPC 远程运行 OpenCL 内核

对于远程 OpenCL 设备,整体流程和前面几乎一致:定义内核、上传文件并通过 RPC 运行。

备注

Raspberry Pi 不支持 OpenCL,以下代码在 Firefly-RK3399 上测试通过。你可以参考这个 教程 设置 RK3399 的操作系统和 OpenCL 驱动。

同时,需要在 RK3399 上启用 OpenCL 构建 TVM 运行时。在 TVM 根目录下执行:

复制代码
cp cmake/config.cmake .
sed -i "s/USE_OPENCL OFF/USE_OPENCL ON/" config.cmake
make runtime -j4

以下函数展示了如何远程运行一个 OpenCL 内核:

复制代码
def run_opencl():
    # 注意:这是我 rk3399 的设置,请根据你的设备环境进行修改
    opencl_device_host = "10.77.1.145"
    opencl_device_port = 9090
    target = tvm.target.Target("opencl", host="llvm -mtriple=aarch64-linux-gnu")

    # 创建上述「加一」计算的调度
    mod = tvm.IRModule.from_expr(te.create_prim_func([A, B]))
    sch = tvm.tir.Schedule(mod)
    (x,) = sch.get_loops(block=sch.get_block("B"))
    xo, xi = sch.split(x, [None, 32])
    sch.bind(xo, "blockIdx.x")
    sch.bind(xi, "threadIdx.x")
    func = tvm.compile(sch.mod, target=target)

    remote = rpc.connect(opencl_device_host, opencl_device_port)

    # 导出并上传
    path = temp.relpath("lib_cl.tar")
    func.export_library(path)
    remote.upload(path)
    func = remote.load_module("lib_cl.tar")

    # 运行
    dev = remote.cl()
    a = tvm.runtime.tensor(np.random.uniform(size=1024).astype(A.dtype), dev)
    b = tvm.runtime.tensor(np.zeros(1024, dtype=A.dtype), dev)
    func(a, b)
    np.testing.assert_equal(b.numpy(), a.numpy() + 1)
    print("OpenCL test passed!")

总结

本教程完整展示了 TVM 中交叉编译和 RPC 功能的使用流程:

  • 在远程设备上设置 RPC 服务器;
  • 在本地设置目标设备的交叉编译配置;
  • 通过 RPC API 上传并远程运行内核程序。

可右键另存为下载。

下载 Jupyter notebook:cross_compilation_and_rpc.ipynb

下载 Python 源码:cross_compilation_and_rpc.py

下载压缩包:cross_compilation_and_rpc.zip

相关推荐
默默开发18 分钟前
完整版:本地电脑 + WiFi 搭建 AI 自动炒股 + 自我学习系统
人工智能·学习·电脑
zzh9407723 分钟前
2026年AI文件上传功能实战:聚合站处理图片、PDF、PPT全指南
人工智能·pdf·powerpoint
LCMICRO-133108477461 小时前
长芯微LD9689完全P2P替代AD9689,是一款双通道、14位、2.0 GSPS/2.6 GSPS模数转换器(ADC)
网络·单片机·嵌入式硬件·网络协议·fpga开发·硬件工程·高速adc
新缸中之脑5 小时前
Paperless-NGX实战文档管理
人工智能
无极低码7 小时前
ecGlypher新手安装分步指南(标准化流程)
人工智能·算法·自然语言处理·大模型·rag
grant-ADAS7 小时前
记录paddlepaddleOCR从环境到使用默认模型,再训练自己的数据微调模型再推理
人工智能·深度学习
炎爆的土豆翔7 小时前
OpenCV 阈值二值化优化实战:LUT 并行、手写 AVX2 与 cv::threshold 性能对比
人工智能·opencv·计算机视觉
智能相对论7 小时前
从AWE看到海尔智慧家庭步步引领
人工智能
云和数据.ChenGuang7 小时前
魔搭社区 测试AI案例故障
人工智能·深度学习·机器学习·ai·mindstudio
小锋学长生活大爆炸7 小时前
【工具】无需Token!WebAI2API将网页AI转为API使用
人工智能·深度学习·chatgpt·openclaw