【问题记录】如何编译nv_peer_memory模块?依赖OFED的4个目录和2类文件?如何解决没有rdma/peer_mem.h文件?

背景

GDR:GPUDirect RDMA。这项新技术在 GPU 内存之间直接与 NVIDIA HCA/NIC 设备之间提供直接的 P2P(点对点)数据路径。这显着降低了 GPU-GPU 通信延迟,并完全减轻了 CPU 的负担。nv_peer_memory模块是网卡提供给GPU使用GDR技术的模块,介于GPU驱动和OFED之间。 nv_peer_memory依赖OFED的接口。

代码仓库

https://github.com/Mellanox/nv_peer_memory

编译安装方法

bash 复制代码
git clone https://github.com/Mellanox/nv_peer_memory.git
cd nv_peer_memory
make -j

编译问题

nv_peer_mem.c:46:10: 致命错误:rdma/peer_mem.h:没有那个文件或目录

问题现象:

问题原因:

可以看到前面有编译告警:

bash 复制代码
/root/workspace/nv_peer_memory/Makefile:17: "WARNING: Compilation might fail against Inbox InfiniBand Stack as it might lack needed support; in such cases you need to install MLNX_OFED package first."

上面<rdma/peer_mem.h>这个文件是由Mellanox网卡驱动OFED提供的。

根据nv_peer_memory模块的编译Makefile得知,nv_peer_memory编译依赖OFED放到指定的位置,具体是:

bash 复制代码
# nv_peer_memory/Makefile文件
KVER := $(shell uname -r) #比如4.19.91-26.an8.x86_64
OFA_ARCH := $(shell uname -m) #比如x86_64 

OFA_DIR ?= /usr/src/ofa_kernel
OFA_CANDIDATES = $(OFA_DIR)/$(OFA_ARCH)/$(KVER) $(OFA_DIR)/$(KVER) $(OFA_DIR)/default /var/lib/dkms/mlnx-ofed-kernel
OFA_KERNEL ?= $(shell for d in $(OFA_CANDIDATES); do if [ -d "$$d" ]; then echo "$$d"; exit 0; fi; done; echo $(OFA_DIR))
...
ccflags-y += -I$(OFA_KERNEL)/include/ -I$(OFA_KERNEL)/include/rdma
...
        /bin/cp -f $(OFA_KERNEL)/Module.symvers my.symvers
...
cat nv.symvers >> my.symvers
make -C $(KDIR) $(MAKE_PARAMS) M=$(PWD) KBUILD_EXTRA_SYMBOLS="$(PWD)/my.symvers" modules

根据文件可以得知,nv_peer_memory编译依赖OFED的Module.symvers以及OFED的头文件:-I$(OFA_KERNEL)/include/-I$(OFA_KERNEL)/include/rdma这两个目录。

并且nv_peer_memory会从4个可能存在OFED驱动的目录中去寻找OFED相关的2类文件

  • /usr/src/ofa_kernel/x86_64/4.19.91-26.an8.x86_64
  • /usr/src/ofa_kernel/4.19.91-26.an8.x86_64
  • /usr/src/ofa_kernel/default
  • /var/lib/dkms/mlnx-ofed-kernel
    如果这些目录没有OFED并且没有编译就会出现异常。没有OFED会造成没有头文件,也就是上面的问题,没有编译会造成没有Module.symvers文件。
    可以看一下编译后的效果

如何解决,参考兄弟篇Mellanox OFED编译方法详细步骤,然后把OFED的编译目录放到/usr/src/ofa_kernel/default中,比如安装后的效果:

可以看到依赖的头文件路径在这里:

其他

nv_peer_memory依赖OFED的哪些接口?

ib_core.ko ib_unregister_peer_memory_client nv_peer_memory ib_register_peer_memory_client

bash 复制代码
void *
ib_register_peer_memory_client(const struct peer_memory_client *peer_client,
			       invalidate_peer_memory *invalidate_callback);
void ib_unregister_peer_memory_client(void *reg_handle);


nv_peer_memory信息:

可以看到依赖2个模块 ib_core,nvidia

相关推荐
受累的大忽悠17 小时前
docker容器监控 - 挂载监控gpu (amd、nvidia、ppu)方式
gpu·监控
nuczzz20 小时前
NVIDIA k8s-device-plugin源码分析与安装部署
kubernetes·k8s·gpu·nvidia·cuda
东锋1.35 天前
NVIDIA(英伟达) GPU 芯片架构发展史
gpu·nvidia
KIDGINBROOK7 天前
DeepSeek DeepEP学习(一)low latency dispatch
gpu·cuda
AI小白龙13 天前
使用torch.compile进行CPU优化
pytorch·python·gpu·cuda编程
怪怪王18 天前
【GPU驱动】OpenGLES图形管线渲染机制
驱动开发·gpu·opengl
叶庭云19 天前
PyTorch 深度学习框架中 torch.cuda.empty_cache() 的妙用与注意事项
pytorch·深度学习·gpu·empty_cache·内存缓存管理
smartcat20101 个月前
VLLM历次会议(2024.7)
大模型·gpu
LucianaiB1 个月前
深度对比析:DeepSeek服务优胜本地部署、网页版与蓝耘GPU智算云平台的较量以及删除本地部署的过程
python·ai·gpu·本地部署·deepseek