两张RTX 8000 运行大模型

降级 SGLang 到 0.1.9:0.1.9 版本内置的是 NCCL 2.18(与你系统的版本匹配,适配 Volta 架构);

降低NCCL版本尝试将NCCL降级到2.19.3(这是一个比较稳定的版本)

硬件层面:RTX 8000 是 2018 年发布的 Volta 架构 GPU,NCCL 从 2.20 版本开始大幅削减对 Volta 的支持,2.27.5 版本几乎完全移除了 Volta 相关的内核适配,导致初始化时直接段错误;

软件层面:SGLang 最新版的多卡张量并行(tp-size>1)模块硬编码调用 NCCL,即使指定 TORCH_DISTRIBUTED_USE_GLOO=1,也仅能让 PyTorch 分布式框架用 Gloo,但 SGLang 自身的设备通信层仍会调用 NCCL,无法绕过;

VLLM_USE_MODELSCOPE=true python3 -m vllm.entrypoints.openai.api_server

--model Qwen/Qwen2.5-32B-Instruct

--tensor-parallel-size 2 --dtype=half --port 8000

curl http://localhost:8000/v1/chat/completions

-H "Content-Type: application/json"

-d '{

"model": "Qwen/Qwen2.5-32B-Instruct",

"messages": [

{"role": "user", "content": "你好,请介绍一下自己"}

],

"temperature": 0.7,

"max_tokens": 1024

}'

python3 -c "

import torch, transformers, vllm

print(f'PyTorch版本: {torch.version }')

print(f'PyTorch CUDA: {torch.version.cuda}')

print(f'Transformers版本: {transformers.version }')

print(f'vLLM版本: {vllm.version }')

print(f'CUDA可用: {torch.cuda.is_available()}')

print(f'显卡数量: {torch.cuda.device_count()}')

"

PyTorch版本: 2.1.2+cu121

PyTorch CUDA: 12.1

Transformers版本: 4.41.0

vLLM版本: 0.3.0

CUDA可用: True

显卡数量: 2

相关推荐
飞哥数智坊1 天前
分享被迫变直播:AI·Spring养虾记就这样上线了
人工智能
Mr_Lucifer1 天前
「一句话」生成”小红书“式金句海报(CodeFlicker + quote-poster-generator)
人工智能·aigc·visual studio code
冬奇Lab1 天前
OpenClaw 深度解析(五):模型与提供商系统
人工智能·开源·源码阅读
冬奇Lab1 天前
一天一个开源项目(第42篇):OpenFang - 用 Rust 构建的 Agent 操作系统,16 层安全与 7 个自主 Hands
人工智能·rust·开源
IT_陈寒1 天前
SpringBoot性能飙升200%?这5个隐藏配置你必须知道!
前端·人工智能·后端
yiyu07161 天前
3分钟搞懂深度学习AI:反向传播:链式法则的归责游戏
人工智能·深度学习
机器之心1 天前
OpenClaw绝配!GPT-5.4问世,AI能力开始大一统,就是太贵
人工智能·openai
机器之心1 天前
海外华人15人团队打造,统一理解与生成的图像模型,超越Nano banana登顶图像编辑
人工智能·openai
用户552796026051 天前
在老版本 HPC 系统上运行 Antigravity(反重力)
人工智能