OpenClaw 腾讯云 + 火山方舟(Volcengine Ark)完整安装与扩展教程
适用场景:你准备在 腾讯云 CVM(Ubuntu LTS) 上部署一套长期在线的 OpenClaw,主模型优先使用 火山方舟 / 方舟引擎 API ,并在安装完成后继续扩展 国内外渠道、插件、skills 与 MCP 类工具能力。
本文尽量把"官方手册能确认的稳定做法"和"社区里已验证但仍在快速演进的做法"分开写,避免你踩到版本变化的坑。
目录
- [1. 先把 5 个概念分清:模型、渠道、插件、Skills、MCP](#1. 先把 5 个概念分清:模型、渠道、插件、Skills、MCP)
- [2. 本教程推荐的部署架构](#2. 本教程推荐的部署架构)
- [3. 服务器与云资源准备(腾讯云)](#3. 服务器与云资源准备(腾讯云))
- [4. Ubuntu 初始化与非 root 运行用户](#4. Ubuntu 初始化与非 root 运行用户)
- [5. 安装 OpenClaw(官方推荐路径)](#5. 安装 OpenClaw(官方推荐路径))
- [6. 接入方舟引擎 API:推荐两种方式](#6. 接入方舟引擎 API:推荐两种方式)
- [7. 安装完成后的目录、配置文件与日志位置](#7. 安装完成后的目录、配置文件与日志位置)
- [8. 推荐的
openclaw.json基础模板](#8. 推荐的 openclaw.json 基础模板) - [9. 国内外渠道/平台接入方法](#9. 国内外渠道/平台接入方法)
- [10. Skills 的安装、检查与更新(Linux)](#10. Skills 的安装、检查与更新(Linux))
- [11. MCP 工具怎么接:当前稳定做法与实验性做法](#11. MCP 工具怎么接:当前稳定做法与实验性做法)
- [12. 常见问题与避坑建议](#12. 常见问题与避坑建议)
- [13. 一套建议你直接照抄的落地顺序](#13. 一套建议你直接照抄的落地顺序)
- 参考资料
1. 先把 5 个概念分清:模型、渠道、插件、Skills、MCP
这是很多人第一次部署 OpenClaw 时最容易混淆的地方。
1.1 模型提供商(Model Provider)
这是 OpenClaw 背后实际调用的大模型来源,比如 OpenAI、Anthropic、Z.AI(GLM)、Moonshot、MiniMax、Qianfan、Volcano Engine(火山方舟 / Doubao)等。OpenClaw 官方文档明确把它们归类在 Model Providers ,模型引用格式通常是 provider/model。[1](#1)[2](#2)
1.2 聊天渠道(Channel)
这是 OpenClaw 跟你交互的"入口",比如 Telegram、WhatsApp、Slack、Discord、Signal、Feishu、LINE、Zalo 等。官方把这些放在 Channels 文档里。[3](#3)
1.3 插件(Plugin)
插件用于给 OpenClaw 增加额外功能、命令、工具和 Gateway RPC。很多渠道本身就是以插件方式提供的,比如 Feishu、LINE、Matrix、Mattermost 等。[4](#4)
1.4 Skills
Skills 更像能力包/任务包。Linux 上没有 macOS 那种 Skills 图形界面,官方建议通过 ClawHub 或把 skill 目录直接放进工作区来安装与管理。[5](#5)[6](#6)
1.5 MCP
MCP(Model Context Protocol)本质上是外部工具/服务能力的接入协议。但到你现在要部署的这一代 OpenClaw ,稳定文档里还没有一份非常成熟的一等 mcpServers 全局配置手册;官方 ACP 文档只明确写了 bridge mode 不支持 per-session mcpServers,需要在 gateway 或 agent 层配置 。与此同时,社区里最近仍有关于 mcpServers 在 openclaw.json 中"不被 schema 识别"的 issue / discussion。也就是说:MCP 能力存在,但在当前稳定版里仍更适合按"实验性 / bridge / provider-specific"思路接入,而不是把它当作已经完全定型的顶层配置。 [7](#7)[8](#8)[9](#9)
结论:
- 方舟 / GLM / Kimi / MiniMax 这类是"模型提供商";
- 微信 / 飞书 / Telegram / LINE / 小艺 这类主要是"渠道 / 插件 / 平台接入";
- ClawHub 装的是 skills;
- MCP 目前要单独谨慎处理。
2. 本教程推荐的部署架构
我推荐你用下面这套架构:
- 腾讯云 CVM:Ubuntu 22.04 LTS 或 24.04 LTS;
- 专属普通用户 :例如
openclaw,不要直接用 root 跑网关; - OpenClaw Gateway :通过官方安装脚本安装,并以 Linux
systemd --user方式常驻; - 模型 :优先走 Volcano Engine / 火山方舟官方 provider ;如果你要接自己在方舟里开的 OpenAI 兼容接入点,再用 Custom Provider;
- 访问 Dashboard :优先使用 loopback + token + SSH 隧道;
- 外部渠道:按需接 Telegram / Feishu / 微信 / LINE / 小艺等;
- Skills:通过 ClawHub 安装;
- MCP:当前按"实验性增强"处理,不把它放到第一天安装的关键路径里。
OpenClaw 官方对 Linux/VPS 的建议也基本是这条思路:使用 Ubuntu LTS、Node 22+、openclaw onboard --install-daemon、Linux 上用 systemd user unit,并且最好一台主机 / 一个 OS 用户对应一个可信边界。[10](#10)[11](#11)[12](#12)
3. 服务器与云资源准备(腾讯云)
3.1 CVM 规格建议
OpenClaw 官方 FAQ 给出的 VPS 基线是:
- 绝对最低:1 vCPU、1GB RAM、约 500MB 磁盘;
- 更实用的推荐:1--2 vCPU、2GB RAM 或以上;
- 如果你还会跑浏览器控制、媒体、多个渠道、Node 工具,建议再往上加。[13](#13)
对腾讯云来说,我更建议:
- 测试机:2C2G;
- 长期在线 + 多渠道:2C4G 更稳;
- 系统选择:Ubuntu 22.04 LTS / 24.04 LTS。
3.2 安全组怎么开
腾讯云官方文档说明:只有在安全组里放通端口,对应服务才能访问;修改服务端口后,也必须同步在安全组里放通。[14](#14)
初始安装阶段建议只开:
TCP 22:SSH 登录;
不建议一上来就开:
18789:OpenClaw 默认控制面端口。建议先不对公网开放,改为本地回环 + SSH 隧道访问;
只有在你接这些渠道时再开:
80 / 443:给反向代理或 HTTPS webhook 用;- 某些插件的自定义 webhook 端口,例如微信插件 README 中常见的
18790; - 但这类端口必须配合 HTTPS、来源限制、token/auth 一起考虑。
最稳的原则:
OpenClaw Dashboard 不直接裸露到公网;对公网开放的只应该是你明确需要的 webhook / 反向代理入口。
OpenClaw 官方安全文档也明确把"非 loopback 绑定但未鉴权"列为高风险项。[12](#12)
4. Ubuntu 初始化与非 root 运行用户
先用腾讯云控制台拿到服务器公网 IP,通过 SSH 连进去:
bash
ssh ubuntu@<你的服务器公网IP>
# 或者 ssh root@<公网IP>,取决于镜像默认用户
更新系统:
bash
sudo apt update && sudo apt upgrade -y
sudo apt install -y curl git jq ca-certificates build-essential unzip
创建一个专门跑 OpenClaw 的普通用户:
bash
sudo adduser openclaw
sudo usermod -aG sudo openclaw
su - openclaw
为什么这么做?因为 OpenClaw 官方安全文档建议把一个 Gateway 视作一个可信边界,最好一台主机 / 一个 OS 用户对应一个边界;同时,你用普通用户运行,也更符合 Linux 的长期服务实践。[11](#11)[12](#12)
5. 安装 OpenClaw(官方推荐路径)
OpenClaw 官方 Getting Started 给出的最快安装路径是:
bash
curl -fsSL https://openclaw.ai/install.sh | bash
openclaw onboard --install-daemon
openclaw gateway status
openclaw dashboard
其中官方前提条件是 Node 22 或更新版本 。安装脚本是官方推荐路径。[10](#10)
所以你在 openclaw 用户下直接执行:
bash
curl -fsSL https://openclaw.ai/install.sh | bash
source ~/.bashrc
node --version
openclaw --version
如果 node --version 不是 22+,先修 Node,再继续。
5.1 跑 onboarding
bash
openclaw onboard --install-daemon
Linux 上,官方向导会尽量给你装成 systemd user unit ,并尝试 loginctl enable-linger <user>,让你退出 SSH 后服务还能继续运行。[15](#15)
5.2 向导里怎么选
推荐你这样选:
- Mode:Local
- Gateway bind :
loopback - Gateway auth :
token - Gateway port :默认
18789 - Model/Auth:先选 Volcengine(推荐),或选 Custom Provider(如果你要自己填方舟兼容接口)
- Daemon:安装
安装完成后检查:
bash
openclaw gateway status
openclaw logs --follow
如果服务没有自动起来,你可以补一遍:
bash
openclaw gateway install
systemctl --user daemon-reload
systemctl --user enable --now openclaw-gateway.service
openclaw gateway status
6. 接入方舟引擎 API:推荐两种方式
火山引擎官方文档明确写了:方舟模型 API 尽可能兼容 OpenAI API ,通常只需要改少量配置,例如 base url、model、api_key。[16](#16)
而 OpenClaw 官方文档又提供了两条路:
- 直接使用官方内置的 Volcano Engine provider(推荐);
- 把 Ark 某个 OpenAI-compatible 接入点当作 Custom Provider 接进去 。[1](#1) [17](#17)
6.1 方案 A:直接用 OpenClaw 官方内置 volcengine provider(推荐)
如果你只是想稳定地用方舟 / Doubao / 方舟里的常见模型,这条最简单。
官方 Model Providers 文档给出的信息是:
- provider:
volcengine - 认证环境变量:
VOLCANO_ENGINE_API_KEY - CLI:
openclaw onboard --auth-choice volcengine-api-key - 示例模型:
volcengine/doubao-seed-1-8-251228 - coding 相关 provider:
volcengine-plan,例如volcengine-plan/ark-code-latest[1](#1)
推荐做法
把 key 写进 ~/.openclaw/.env:
bash
mkdir -p ~/.openclaw
cat >> ~/.openclaw/.env <<'ENV'
VOLCANO_ENGINE_API_KEY=你的方舟APIKey
OPENCLAW_GATEWAY_TOKEN=你自己生成的一个长随机串
ENV
然后重启或重新加载网关:
bash
openclaw gateway restart
openclaw models list
你也可以重新跑一次向导:
bash
openclaw onboard --auth-choice volcengine-api-key
最小配置示例
json5
{
gateway: {
bind: "loopback",
port: 18789,
auth: {
mode: "token",
token: "${OPENCLAW_GATEWAY_TOKEN}"
}
},
agents: {
defaults: {
workspace: "~/.openclaw/workspace",
model: {
primary: "volcengine/doubao-seed-1-8-251228",
fallbacks: ["zai/glm-5", "moonshot/kimi-k2.5"]
}
}
}
}
6.2 方案 B:把你自己的方舟 OpenAI-compatible 接入点当成 Custom Provider
如果你不是想直接用 OpenClaw 预设的 volcengine/* 模型,而是:
- 你在方舟控制台里创建了自己的 Endpoint / 接入点;
- 你想走自己那条 OpenAI-compatible base URL;
- 或者你需要绑定某个特定 endpoint/model id;
那么用 OpenClaw 官方支持的 Custom Provider 更合适。官方 onboarding 文档明确写了:Custom Provider 支持 OpenAI-compatible 或 Anthropic-compatible 端点 ,需要你提供 base URL、API key、model ID 和一个 Endpoint ID。[17](#17)
交互式做法
bash
openclaw onboard
然后在向导里选择:
- Custom Provider
- OpenAI-compatible
- 填入方舟控制台给你的 OpenAI 兼容
base URL - 填入
API key - 填入
model ID / endpoint ID
手工配置示例
注意:下面的
ARK_OPENAI_BASE_URL和模型 ID 需要以你在火山方舟控制台里看到的值为准;不同账号、区域、Endpoint 配置可能不同。
json5
{
gateway: {
bind: "loopback",
port: 18789,
auth: {
mode: "token",
token: "${OPENCLAW_GATEWAY_TOKEN}"
}
},
agents: {
defaults: {
workspace: "~/.openclaw/workspace",
model: {
primary: "ark-custom/your-endpoint-id"
}
}
},
models: {
mode: "merge",
providers: {
"ark-custom": {
baseUrl: "${ARK_OPENAI_BASE_URL}",
apiKey: "${VOLCANO_ENGINE_API_KEY}",
api: "openai-completions",
models: [
{
id: "your-endpoint-id",
name: "Volcengine Ark Custom Endpoint",
reasoning: true,
input: ["text"]
}
]
}
}
}
}
这种写法本质上就是套用了 OpenClaw 官方 models.providers 自定义 provider 方案。官方配置示例里同样给出了 baseUrl + apiKey + api + models[] 的模板。[18](#18)
7. 安装完成后的目录、配置文件与日志位置
OpenClaw 官方文档说明,默认配置文件在:
~/.openclaw/openclaw.json
环境变量会从以下位置读取:
- 父进程环境变量
- 当前工作目录的
.env ~/.openclaw/.env(全局 fallback)[19](#19)
建议你重点记住这些位置:
text
~/.openclaw/
├── openclaw.json # 主配置文件
├── .env # API key / token 等敏感信息
├── credentials/ # 渠道与认证状态
├── workspace/ # 默认工作区
└── logs / 其他运行状态 # 依版本与插件而定
官方还说明:~/.openclaw/openclaw.json 的改动多数情况下支持热加载,不一定每次都需要手工重启。[20](#20)
8. 推荐的 openclaw.json 基础模板
下面给你一份比较适合腾讯云长期运行的基础版模板:
json5
{
gateway: {
bind: "loopback",
port: 18789,
auth: {
mode: "token",
token: "${OPENCLAW_GATEWAY_TOKEN}"
},
reload: {
mode: "hybrid",
debounceMs: 300
}
},
env: {
shellEnv: { enabled: true, timeoutMs: 15000 }
},
agents: {
defaults: {
workspace: "~/.openclaw/workspace",
model: {
primary: "volcengine/doubao-seed-1-8-251228",
fallbacks: ["zai/glm-5", "moonshot/kimi-k2.5"]
}
}
},
models: {
mode: "merge",
providers: {
moonshot: {
baseUrl: "https://api.moonshot.ai/v1",
apiKey: "${MOONSHOT_API_KEY}",
api: "openai-completions",
models: [{ id: "kimi-k2.5", name: "Kimi K2.5" }]
}
}
},
skills: {
mode: "merge"
}
}
这个模板体现了几个原则:
- Dashboard 不暴露公网 :
bind: "loopback"; - 必须有 token;
- 主模型用方舟 / Doubao;
- 备用模型加 GLM、Kimi;
- Moonshot 这种 OpenAI-compatible 的国内 provider 单独写进
models.providers。[1](#1)[18](#18)[19](#19)[20](#20)
9. 国内外渠道/平台接入方法
先说最关键的一句:
微信、飞书、小艺、Telegram、Slack 这些大多不是 skills,而是 channel / plugin / platform integration。
所以你的接入思路应该是:
- 先把模型通了;
- 再把 Gateway 通了;
- 再按需接入 channel/plugin;
- 最后才补 ClawHub skills。
9.1 Feishu / 飞书(推荐的国内办公入口)
OpenClaw 官方渠道页说明:
- Feishu 通过 WebSocket 事件订阅接入;
- 当前版本通常已随 OpenClaw 打包,无需额外安装 ;若未打包,可手动:
openclaw plugins install @openclaw/feishu - 最推荐的方式是直接用
openclaw onboard或openclaw channels add; - 这种方式的优点是:不需要公开 webhook URL 。[21](#21)
CLI 接入
bash
openclaw channels add
# 选择 Feishu,填 App ID / App Secret
最小配置示例
json5
{
channels: {
feishu: {
enabled: true,
dmPolicy: "pairing",
accounts: {
main: {
appId: "cli_xxx",
appSecret: "xxx",
botName: "My AI assistant"
}
}
}
}
}
官方 Feishu 文档还给了比较完整的控制台步骤:创建企业应用、获取 App ID / App Secret、导入权限、启用 bot 能力、事件订阅选择 Use long connection to receive events (WebSocket) ,并添加事件 im.message.receive_v1。[21](#21)
对中国区办公协作场景来说,Feishu 是目前最适合放在第一优先级的国内渠道。
9.2 微信(WeChat)
目前 OpenClaw 官方文档没有把"微信个人号"列成第一方正式 channel,但官方 Community plugins 页面已经收录了一个高质量微信社区插件:
bash
openclaw plugins install @icesword760/openclaw-wechat
官方社区插件页对它的描述是:通过 **WeChatPadPro(iPad 协议)**连接微信个人号,支持文本、图片、文件等。[22](#22)
更详细的社区配置参考
另一个社区插件 README(@canghe/openclaw-wechat)给出了较完整的云端配置示例,包括:
channels.wechat.apiKeychannels.wechat.proxyUrlchannels.wechat.webhookHostchannels.wechat.webhookPort- 首次登录扫码等[23](#23)
示例大致是:
json5
{
channels: {
wechat: {
enabled: true,
apiKey: "wc_live_xxxxxxxxxxxxxxxx",
proxyUrl: "http://your-proxy:3000",
webhookHost: "你的公网 IP 或域名",
webhookPort: 18790,
webhookPath: "/webhook/wechat",
deviceType: "ipad"
}
}
}
微信接入时你要特别注意的 4 个点
- 这类插件通常不是 OpenClaw 第一方官方稳定 channel;
- 个人微信号接入往往依赖第三方协议、代理或二维码登录;
- 很多实现会要求 公网可达的 webhook 地址;
- 风险控制、合规、封号风险要你自己承担。
因此:
- 如果你要企业内使用,优先考虑 飞书 / 企业微信 / Telegram;
- 如果你就是要个人微信做入口,优先使用文档完整、更新活跃、Issue 有维护者响应的社区插件。
9.3 LINE
OpenClaw 官方 LINE 文档说明:
- LINE 是 plugin channel;
- 通过 LINE Messaging API 接入;
- 需要
Channel access token和Channel secret; - 需要把 webhook 指向:
https://gateway-host/line/webhook - 要求 HTTPS 。[24](#24)
所以 LINE 更适合:
- 你已经有域名;
- 你愿意在腾讯云上配 Nginx/Caddy + HTTPS;
- 面向国际或东亚用户场景。
9.4 Telegram / Slack / Discord / WhatsApp
这些都在官方 channels 文档里,通常比微信类社区插件更成熟。官方还明确说:
- 最快成功的通常是 Telegram;
- WhatsApp 需要 QR 配对,状态文件更多;
- 支持多渠道同时运行。[3](#3)
如果你只是想尽快验证整套 Gateway 正常工作,建议你先接:
- Dashboard
- Telegram
- Feishu
这样排错最容易。
9.5 华为小艺智能体(Xiaoyi / HarmonyOS)
这个部分要单独说明:
它不是传统意义上的 OpenClaw skill
根据华为官方开发者文档检索结果,小艺开放平台已经新增 OpenClaw 模式。官方检索摘要显示:
- 在"小艺开放平台 / 鸿蒙智能体"中,用户可以在"标准创建"的"编排方式"里选择 OpenClaw 模式;
- 官方接入步骤大致是:
- 服务器安装 OpenClaw;
- 创建 OpenClaw 智能体;
- 将智能体 channel 配置接入 OpenClaw 服务器。[25](#25)[26](#26)[27](#27)
这意味着什么
这说明"小艺"更像是:
- 平台侧的 OpenClaw 接入模式;
- 或者说,是华为小艺生态把你的 OpenClaw 网关当成后端智能体;
- 它不是你在 ClawHub 里
clawhub install的 skill。
当前最稳的操作建议
由于华为相关页面在当前环境里无法完整渲染出字段级文档,我建议你按下面思路接:
- 先按本文把 OpenClaw 在腾讯云上跑通;
- 准备一个稳定可访问的 Gateway(建议带 token,必要时配反向代理);
- 打开 小艺开放平台;
- 创建智能体时选择 OpenClaw 模式;
- 按平台当前页面提示填写:
- Gateway 地址 / 回调地址 / channel 信息
- 必要的 token / 密钥
- 智能体名称、人设、入口能力等
- 首次只做最小链路验证:让小艺能把问题送到 OpenClaw 并拿回一条文本回复。
我对你更务实的建议
- 第一阶段:先把 OpenClaw + 方舟 + Dashboard + Feishu 跑通;
- 第二阶段:再接小艺;
- 因为小艺这条链路属于"平台集成",其字段、审核、入口和能力集都可能随着平台版本快速变化。
10. Skills 的安装、检查与更新(Linux)
Linux 上安装 skills,官方 FAQ 的原话很明确:
- macOS 的 Skills UI 在 Linux 上不可用;
- Linux 请使用 ClawHub CLI 或把 skills 目录直接放进工作区。[5](#5)
10.1 安装 ClawHub CLI
bash
npm i -g clawhub
# 或 pnpm add -g clawhub
10.2 搜索、安装、更新 skills
bash
clawhub search "calendar"
clawhub install <skill-slug>
clawhub update --all
OpenClaw 官方 skills / ClawHub 文档给出的常见动作就是这些。[6](#6)[28](#28)
10.3 检查 skill 是否真的可用
bash
openclaw skills list
openclaw skills check -v
openclaw skills info <skill-name>
如果某个 skill 显示 blocked,通常说明:
- 依赖 CLI 没装;
- OS 不匹配;
- 权限 / PATH / 环境变量缺失。
官方 FAQ 也明确提到:Linux 上不能直接跑仅限 macOS 的技能,除非你采用 Mac gateway 或 Mac node 等特殊架构。[5](#5)
10.4 国内外常见扩展思路
更适合放进"skills / 工具能力"的方向
- Google Suite / Gmail / Calendar 相关;
- GitHub / Linear / Notion / Home Assistant;
- 读写文件、自动化脚本、抓图、摄像头、语音;
- 社区里已经在 ClawHub 有现成 skill 的能力。
更适合放进"channel / plugin"的方向
- 微信
- 飞书
- LINE
- Telegram
- Slack
- 小艺
所以你后续扩展时,优先记住一句:
平台入口优先看 channel/plugin,任务能力优先看 skill。
11. MCP 工具怎么接:当前稳定做法与实验性做法
这是本文里最容易被写错的一段,所以我拆成两部分。
11.1 当前稳定判断
截至我检索到的文档与社区讨论:
- 官方 ACP 文档写明:bridge mode 不支持 per-session
mcpServers;[7](#7) - 社区讨论中,已经有人在
openclaw.json里加mcpServers后直接遇到:
Unrecognized key: mcpServers;[8](#8) - 甚至就在最近,GitHub 上仍有"希望把 MCP server config 正式纳入
openclaw.jsonschema"的 issue。[9](#9)
所以如果你现在是在腾讯云上做稳定生产部署,我的建议是:
不要把 MCP 放成第一天必须完成的事项
先跑通:
- Gateway
- Volcengine 模型
- 一个稳定渠道(例如 Feishu / Telegram)
- Skills
然后再回来折腾 MCP。
11.2 当前更现实的 MCP 方法:走 mcporter / provider-specific bridge
OpenClaw 默认能力清单里已经把 mcporter 描述为:
用于管理外部 Skill 后端的工具服务器运行时 / CLI。[29](#29)
另外,社区近期 issue 也显示:
- 某些 MCP server 今天已经能通过 mcporter bridge 工作 ;[30](#30)
- Z.AI / GLM 相关的 MCP 工具(例如
zread、zai-vision、zai-web-search)目前也更多是通过mcporter.json这种路径接,而不是稳定的一等openclaw.json顶层配置。[31](#31)
你应该怎么理解这件事
- 官方稳定层面:MCP 还没形成"像 channels 一样成熟的一套顶层用户配置手册";
- 工程实践层面 :已经有人在用
mcporter桥接一部分 MCP server; - 所以目前最稳的姿势 :
- 把 MCP 视为"高级增强项";
- 优先跟着具体 provider / plugin / community repo 的 README 配;
- 不要先入为主地在
openclaw.json里硬塞一个mcpServers顶层块。
11.3 我建议的 MCP 实施顺序
第一优先级:先用 OpenClaw 自带 tools + skills
很多你以为要靠 MCP 做的事,OpenClaw 当前已经能通过:
- 内置 tools
- channel plugins
- ClawHub skills
- provider-specific capability
直接完成。
第二优先级:只接你最需要的 1 个 MCP
例如:
- Notion / Linear / Postgres / Browser / 搜索
不要一次上 5 个。
第三优先级:把 MCP 配置跟主配置隔离管理
如果你后面真的走 mcporter,建议你把这部分单独放在工作区 config/ 下,避免把主配置文件越改越乱。
12. 常见问题与避坑建议
12.1 不要用 root 直接跑 Gateway
OpenClaw 官方安全模型是"一个 Gateway 对应一个可信边界",而不是多租户隔离平台。长期运行时,用专门普通用户比 root 更稳。[11](#11)[12](#12)
12.2 Dashboard 不要直接裸露公网
更推荐:
bind: loopbackauth: token- 宿主机本地或你的电脑上用 SSH 隧道访问
例如:
bash
ssh -N -L 18789:127.0.0.1:18789 openclaw@<你的腾讯云IP>
然后在本地打开:
text
http://127.0.0.1:18789/
12.3 需要 webhook 的渠道,才考虑公网 HTTPS
- Feishu:WebSocket,可不暴露公网 webhook;[21](#21)
- LINE:要求 HTTPS webhook;[24](#24)
- 微信社区插件:一般也要求公网回调地址。[23](#23)
所以不要为了 Dashboard 方便就把 18789 公网放开。
12.4 插件只装你明确信任的
官方安全审计清单明确把插件 / 扩展列为需要重点留意的风险面之一。[32](#32)
12.5 Linux 上 skill 安装方式跟 macOS 不一样
Linux 没有 macOS 那种 Skills UI,记住用 ClawHub。[5](#5)
12.6 当前 MCP 仍处于"可用但不够定型"的阶段
如果你今天的目标是"先把智能体跑起来",那就先别让 MCP 拖慢主线。
13. 一套建议你直接照抄的落地顺序
如果你想尽量少踩坑,直接按这个顺序做:
第 1 步:腾讯云准备
- 买 Ubuntu 22.04/24.04 CVM
- 安全组只放
22 - 先别对公网开放
18789
第 2 步:系统初始化
bash
sudo apt update && sudo apt upgrade -y
sudo apt install -y curl git jq ca-certificates build-essential unzip
sudo adduser openclaw
sudo usermod -aG sudo openclaw
su - openclaw
第 3 步:安装 OpenClaw
bash
curl -fsSL https://openclaw.ai/install.sh | bash
source ~/.bashrc
openclaw onboard --install-daemon
第 4 步:先接方舟模型
优先选:
volcengine-api-key- 默认模型选一个
volcengine/...
第 5 步:确认 Gateway 正常
bash
openclaw gateway status
openclaw logs --follow
第 6 步:本地用 SSH 隧道打开 Dashboard
bash
ssh -N -L 18789:127.0.0.1:18789 openclaw@<你的腾讯云IP>
第 7 步:先接一个最稳的渠道
优先顺序建议:
- Dashboard
- Telegram
- Feishu
- 其他
第 8 步:再接国内增强项
- 微信:社区插件
- 小艺:平台 OpenClaw 模式
- Moonshot / GLM / MiniMax / Qianfan:作为模型 provider 增加 fallback
第 9 步:最后再做 skills 和 MCP
bash
npm i -g clawhub
clawhub search "calendar"
clawhub install <skill-slug>
openclaw skills check -v
MCP 则只挑一个最需要的场景开始试,不要一次铺太大。
参考资料
-
OpenClaw 官方文档《Model Providers》:https://docs.openclaw.ai/concepts/model-providers ↩︎ ↩︎ ↩︎ ↩︎
-
OpenClaw 官方文档《Getting Started》:https://docs.openclaw.ai/start/getting-started ↩︎
-
OpenClaw 官方文档《Chat Channels》:https://docs.openclaw.ai/channels ↩︎ ↩︎
-
OpenClaw 官方文档《Plugins》:https://docs.openclaw.ai/tools/plugin ↩︎
-
OpenClaw 官方 FAQ《How do I install skills on Linux》:https://docs.openclaw.ai/help/faq ↩︎ ↩︎ ↩︎ ↩︎
-
OpenClaw 官方文档《Skills》:https://docs.openclaw.ai/tools/skills ↩︎ ↩︎
-
OpenClaw 官方文档《ACP CLI》:https://docs.openclaw.ai/cli/acp ↩︎ ↩︎
-
GitHub Discussion《How to connect Notion to OpenClaw agent via MCP or API?》:https://github.com/openclaw/openclaw/discussions/22164 ↩︎ ↩︎
-
GitHub Issue《Feature: MCP server config support in openclaw.json》:https://github.com/openclaw/openclaw/issues/43509 ↩︎ ↩︎
-
OpenClaw 官方文档《Getting Started》:https://docs.openclaw.ai/start/getting-started ↩︎ ↩︎
-
OpenClaw 官方文档《Security》:https://docs.openclaw.ai/gateway/security ↩︎ ↩︎ ↩︎
-
OpenClaw 官方安全检查 / FAQ / Troubleshooting 相关文档汇总:https://docs.openclaw.ai/gateway/security ↩︎ ↩︎ ↩︎ ↩︎
-
OpenClaw 官方 FAQ《What are the minimum VPS requirements and recommended OS》:https://docs.openclaw.ai/help/faq ↩︎
-
腾讯云官方文档《云服务器 端口问题》:https://cloud.tencent.com/document/product/213/2502 ↩︎
-
OpenClaw 官方《Onboarding Wizard Reference》:https://docs.openclaw.ai/reference/wizard ↩︎
-
火山引擎官方文档《兼容 OpenAI SDK》:https://www.volcengine.com/docs/82379/1330626 ↩︎
-
OpenClaw 官方文档《Onboarding Overview / Custom Provider》:https://docs.openclaw.ai/start/onboarding-overview ↩︎ ↩︎
-
OpenClaw 官方文档《Configuration Examples》:https://docs.openclaw.ai/gateway/configuration-examples ↩︎ ↩︎
-
OpenClaw 官方文档《Configuration》:https://docs.openclaw.ai/gateway/configuration ↩︎ ↩︎
-
OpenClaw 官方文档《Configuration》关于 hot reload:https://docs.openclaw.ai/gateway/configuration ↩︎ ↩︎
-
OpenClaw 官方文档《Feishu》:https://docs.openclaw.ai/channels/feishu ↩︎ ↩︎ ↩︎
-
OpenClaw 官方文档《Community plugins》中的 WeChat 条目:https://docs.openclaw.ai/plugins/community ↩︎
-
社区插件 README《freestylefly/openclaw-wechat》:https://github.com/freestylefly/openclaw-wechat ↩︎ ↩︎
-
OpenClaw 官方文档《LINE》:https://docs.openclaw.ai/channels/line ↩︎ ↩︎
-
华为官方检索摘要《OpenClaw接入-小艺开放平台》:https://developer.huawei.com/consumer/cn/doc/service/openclaw-0000002518410344 ↩︎
-
华为官方检索摘要《鸿蒙智能体 / 编排方式差异》:https://developer.huawei.com/consumer/cn/doc/service/differences-in-arrangement-modes-0000002471344117 ↩︎
-
华为开发者论坛摘要《小艺智能体接入OpenClaw》:https://developer.huawei.com/consumer/cn/forum/topic/0208208462710973190?fid=0109140870620153026 ↩︎
-
OpenClaw 官方文档《ClawHub》:https://docs.openclaw.ai/tools/clawhub ↩︎
-
OpenClaw 官方默认 AGENTS 参考(mcporter 描述):https://docs.openclaw.ai/reference/AGENTS.default ↩︎
-
GitHub Issue 片段《MCP servers works with mcporter today》:https://github.com/openclaw/openclaw/issues/20681 ↩︎
-
GitHub Issue《Auto-configure Z.AI MCP tools during onboard》:https://github.com/openclaw/openclaw/issues/19101 ↩︎
-
OpenClaw 官方文档《Security Audit Checklist》:https://docs.openclaw.ai/gateway/security ↩︎