技术栈
明明已经把vllm被强制kill了,但是仍然占用GPU显存
hit56实验室
2026-02-25 10:46
强制杀掉所有包含 vllm 关键字的进程
pkill -9 -f vllm
如果 vllm 启用了 ray,清理残留的 ray worker
pkill -9 -f ray
或者更直接一点,清理当前用户下的挂起 python 进程(谨慎使用,确保没杀错)
pkill -9 -f python
vllm
上一篇:
【MySQL】4. MySQL表的操作
下一篇:
CCF-CSP 33-2 相似度计算(jaccard)【C++】考点:STL容器(set/map)
相关推荐
执笔论英雄
2 小时前
【vllm】PD分离
vllm
谢白羽
6 小时前
多集群/分布式 LLM 推理方案全景:2026 年选型指南
分布式
·
vllm
·
sglang
·
llm-d
x²+(y-√³x²)²=1
2 天前
Linux 或者 Ubuntu 离线使用 vllm启动大模型
linux
·
ubuntu
·
vllm
HyperAI超神经
2 天前
【TVM教程】理解 Relax 抽象层
人工智能
·
深度学习
·
学习
·
机器学习
·
gpu
·
tvm
·
vllm
晨欣
3 天前
单卡 48GB 实测:Gemma 4 26B A4B、Gemma 4 31B、gpt-oss-20b 三模型部署与并发对比
google
·
openai
·
nvidia
·
vllm
·
llama.cpp
·
gpt-oss-20b
·
gemma4
weixin_668
3 天前
在DGX-Spark上多模态模型gemma-4-31B-it vLLM部署
vllm
认真的薛薛
3 天前
GPU运维:vllm启动大模型参数解析
运维
·
数据库
·
vllm
handsomestWei
4 天前
KV Cache与vLLM、SGLang推理框架
vllm
·
推理框架
·
kv cache
·
sglang
lin_dec+
4 天前
KV Cache:大模型推理加速的关键技术
nlp
·
transformer
·
vllm
·
大模型推理
·
kv cache
deephub
6 天前
从零构建 Mini-vLLM:KV-Cache、动态批处理与分布式推理全流程
人工智能
·
python
·
深度学习
·
大语言模型
·
vllm
热门推荐
01
GitHub 镜像站点
02
一周AI热点速览(2026.03.31-04.06):GPT-6曝光、谷歌开源Gemma 4、资本狂飙与模型军备竞赛
03
OpenClaw 请求超时 llm request timed out 怎么解决?3 种方案实测,附完整排查流程
04
AI 编程效率翻倍:Superpowers Skills 上手清单 + 完整指南
05
MySQL表约束详解:8大核心约束实战指南
06
Oh My Codex 快速使用指南
07
CodeBuddy与WorkBuddy深度对比:腾讯两款AI工具差异及实操指南
08
VMware Workstation Pro 17 虚拟机完整安装教程(2026最新)
09
UV安装并设置国内源
10
Qwen3.5-Omni与Qwen3.6模型全面解析(含测评/案例/使用教程)