openclaw vllm 20260312

赠送14M的token用完了,打算vllm部署Qwen来跑一跑openclaw

1,起vllm服务

vllm doc

sh 复制代码
CUDA_VISIBLE_DEVICES=0,1 python -m vllm.entrypoints.openai.api_server \
	--model Qwen3-32B \
	--served-model-name qwen3-32b \
	--tensor-parallel-size 2 \
	--enable-auto-tool-choice \
    --tool-call-parser hermes \
	--port 50072

2,openclaw配置vllm的provider

openclaw onboard配置一下provider,url:http://ip:50072/v1, 模型名qwen3-32b,apiKey随便填一个

就能调自己的vllm服务了,可以随便测,不用担心tokens;

问题

  1. 如何停止vllm服务,换个模型重启?不能直接kill,如下重启:

    sh 复制代码
    pkill -15 -f vllm.entrypoints.openai.api_server
    # 等gpu显存退了
    pkill -9 -f vllm
  2. tool parser,vllm起服务名字中,需要加上tool相关参数,因为这边基本是要tool能力的。

  3. max_model_len参数不需要设置,因为默认用模型config.json中max_position_embeddings,超过它的话又会报错。

  4. qwen3-32b,长度太短,40960,聊一轮就报长度超了,没法用在openclaw中。

  5. qwen3-vl-32b-instruct的max_position_embeddings=26w,够用了;但是效果不行,一直在读文件,停不下来;虽然qwen3-vl用了图片视频以及长文本,但真正的长文本能力应该比较弱;

  6. 另外,在docker中装的openclaw,在docker里面,只能前台运行"openclaw gateway"。

  7. qwen3-vl-32b-thinking,思考太长了,费token费时间,再测测。

相关推荐
jinanwuhuaguo4 小时前
OpenClaw工程解剖——RAG、向量织构与“记忆宫殿”的索引拓扑学(第十三篇)
android·开发语言·人工智能·kotlin·拓扑学·openclaw
熊猫钓鱼>_>7 小时前
当“虾”遇上“马”:QClaw 融合 Hermes 背后的智能体进化论
人工智能·ai·腾讯云·agent·openclaw·qclaw·hermes
羑悻的小杀马特8 小时前
零成本搞定!异地访问 OpenClaw 最简方案:SSH 端口映射组网!
运维·服务器·人工智能·docker·自动化·ssh·openclaw
jinanwuhuaguo8 小时前
OpenClaw协议霸权——从 MCP 标准到意图封建化的政治经济学(第十八篇)
android·人工智能·kotlin·拓扑学·openclaw
AC赳赳老秦10 小时前
网安工程师提效:用 OpenClaw 实现漏洞扫描报告生成、安全巡检自动化、日志合规审计
java·开发语言·前端·javascript·python·deepseek·openclaw
jinanwuhuaguo11 小时前
OpenClaw执行奇点——因果链折叠与责任悬置的时间哲学(第十九篇)
前端·人工智能·安全·重构·openclaw
Swift社区11 小时前
AI 为什么需要“确认”?OpenClaw 的安全启示
人工智能·安全·openclaw
jinanwuhuaguo12 小时前
反熵共同体——OpenClaw的宇宙热力学本体论(第十七篇)
大数据·人工智能·安全·架构·kotlin·openclaw
七夜zippoe13 小时前
OpenClaw 节点管理:设备与远程控制
人工智能·远程控制·设备·openclaw·节点管理
山顶夕景15 小时前
【Agent】Openclaw架构(Gateway|subagent|工具过滤|Sandbox)
大模型·llm·agent·智能体·openclaw