尝试升级SCNet DCU异构系统VLLM版本(失败)

使用的系统:SCNet DCU ,版本dcu25.04

先上结论,cupy这个软件包没装上去....所以升级失败

首先确认系统系统

复制代码
lsb_release -a

复制代码
Distributor ID: Ubuntu
Description:    Ubuntu 22.04.5 LTS
Release:        22.04
Codename:       jammy

去找DTK-25.04.2 ubuntu22.40

这是系统:

复制代码
https://download.sourcefind.cn:65024/1/main/DTK-25.04.2/Ubuntu22.04

生态包:

复制代码
https://download.sourcefind.cn:65024/4/main/

dash 1.7的,啥意思啊

复制代码
# torch2.51
https://download.sourcefind.cn:65024/directlink/4/pytorch/DAS1.7/torch-2.5.1+das.opt1.dtk25042-cp310-cp310-manylinux_2_28_x86_64.whl
# torch2.71
https://download.sourcefind.cn:65024/directlink/4/pytorch/DAS1.7/torch-2.7.1+das.opt1.dtk25042-cp310-cp310-manylinux_2_28_x86_64.whl

lsm

复制代码
https://download.sourcefind.cn:65024/directlink/4/lmslim/DAS1.7/lmslim-0.3.1+das.dtk25042-cp310-cp310-manylinux_2_28_x86_64.whl

vllm

复制代码
https://download.sourcefind.cn:65024/directlink/4/vllm/DAS1.7/vllm-0.9.2+das.opt1.dtk25042-cp310-cp310-manylinux_2_28_x86_64.whl

lighttop

复制代码
https://download.sourcefind.cn:65024/directlink/4/lightop/DAS1.7/lightop-0.6.0+das.dtk25042-cp310-cp310-manylinux_2_28_x86_64.whl

transformer

这个不管用

复制代码
https://download.sourcefind.cn:65024/directlink/4/transformer_engine/DAS1.7/transformer_engine-2.5.0+das.opt1.dtk25042-cp310-cp310-manylinux_2_28_x86_64.whl

用这个

pip install transformer -U

cupy这个硬骨头

复制代码
export CUPY_INSTALL_USE_HIP=1
export ROCM_HOME=/opt/rocm
export HCC_AMDGPU_TARGET=gfx906
pip install cupy

安装hipcub

复制代码
git clone https://github.com/ROCmSoftwarePlatform/hipCUB.git
cd hipCUB
mkdir build && cd build
cmake ..
make -j$(nproc)
sudo make install

cmake .. -DCMAKE_CXX_COMPILER=/opt/dtk/bin/hipcc  # 显式指定编译器
make -j

也不知道这样是安装好了不?

复制代码
-- Up-to-date: /opt/rocm/include/
-- Up-to-date: /opt/rocm/include//hipcub
-- Installing: /opt/rocm/include//hipcub/hipcub_version.hpp
-- Installing: /opt/rocm/lib/cmake/hipcub/hipcub-targets.cmake
-- Installing: /opt/rocm/lib/cmake/hipcub/hipcub-config.cmake
-- Installing: /opt/rocm/lib/cmake/hipcub/hipcub-config-version.cmake
-- Installing: /opt/rocm/share/doc/hipcub/LICENSE.txt

dcu24.04

先安装hipcub

复制代码
git clone https://github.com/ROCmSoftwarePlatform/hipCUB.git
cd hipCUB
mkdir build && cd build
cmake ..   -DCMAKE_CXX_COMPILER=/opt/dtk/bin/hipcc  # 显式指定编译器
make -j$(nproc)
make install

安装cupy

复制代码
export CUPY_INSTALL_USE_HIP=1
export ROCM_HOME=/opt/dtk
# export HCC_AMDGPU_TARGET=gfx906
pip install cupy

如果不行,就安装cupy12.3版本。

设置:export HCC_AMDGPU_TARGET=gfx942

安装相关库,并安装vllm

复制代码
wget https://download.sourcefind.cn:65024/directlink/4/pytorch/DAS1.7/torch-2.5.1+das.opt1.dtk25042-cp310-cp310-manylinux_2_28_x86_64.whl
pip install torch-2.5.1+das.opt1.dtk25042-cp310-cp310-manylinux_2_28_x86_64.whl

wget https://download.sourcefind.cn:65024/directlink/4/lightop/DAS1.7/lightop-0.6.0+das.dtk25042-cp310-cp310-manylinux_2_28_x86_64.whl
pip install lightop-0.6.0+das.dtk25042-cp310-cp310-manylinux_2_28_x86_64.whl


wget https://download.sourcefind.cn:65024/directlink/4/vllm/DAS1.7/vllm-0.9.2+das.opt1.dtk25042-cp310-cp310-manylinux_2_28_x86_64.whl
pip install vllm-0.9.2+das.opt1.dtk25042-cp310-cp310-manylinux_2_28_x86_64.whl

最后还是没升级成功。

调试

报错 Exception: Please install hipCUB and retry

raise Exception('Please install hipCUB and retry')

Exception: Please install hipCUB and retry

尝试编译安装

编译的时候报错

-- System architecture is x86_64

CMake Error at cmake/VerifyCompiler.cmake:39 (message):

On ROCm platform 'hipcc' or HIP-aware Clang must be used as C++ compiler.

Call Stack (most recent call first):

CMakeLists.txt:124 (include)

-- Configuring incomplete, errors occurred!

make: *** No targets specified and no makefile found. Stop.

相关推荐
谢白羽1 天前
vllm抢占机制详解
算法·vllm
从零开始学习人工智能2 天前
vLLM 多卡部署技巧:如何单独降低某张 GPU 的显存占用
vllm
执笔论英雄2 天前
【vllm】PD分离
vllm
谢白羽2 天前
多集群/分布式 LLM 推理方案全景:2026 年选型指南
分布式·vllm·sglang·llm-d
x²+(y-√³x²)²=14 天前
Linux 或者 Ubuntu 离线使用 vllm启动大模型
linux·ubuntu·vllm
HyperAI超神经5 天前
【TVM教程】理解 Relax 抽象层
人工智能·深度学习·学习·机器学习·gpu·tvm·vllm
晨欣5 天前
单卡 48GB 实测:Gemma 4 26B A4B、Gemma 4 31B、gpt-oss-20b 三模型部署与并发对比
google·openai·nvidia·vllm·llama.cpp·gpt-oss-20b·gemma4
weixin_6685 天前
在DGX-Spark上多模态模型gemma-4-31B-it vLLM部署
vllm
认真的薛薛6 天前
GPU运维:vllm启动大模型参数解析
运维·数据库·vllm
handsomestWei6 天前
KV Cache与vLLM、SGLang推理框架
vllm·推理框架·kv cache·sglang