在群晖NAS上配置OpenClaw:一次踩坑后的保姆级教程(完整修订版)

笔者最近在自己的群晖NAS上成功部署了OpenClaw,整整折腾了一个周末。从镜像下载到多账号配置,踩的坑一个接一个。今天把完整配置过程、所有解决方案总结出来,希望帮助同样想在NAS上部署个人AI助手的小伙伴少走弯路。

01 | 为什么选择在群晖上部署OpenClaw?

笔者之前写过一篇「在本地电脑docker部署OpenClaw」的文章,但有个致命问题:电脑一关机,AI助手就歇菜了。这在「卷」成小龙虾现状下显然不行------AI助手怎么能下班呢?

选择群晖NAS的几个理由:

  1. 24小时在线:NAS不用关机,AI助手随时待命
  2. 性能足够:现在的群晖硬件跑个docker容器绰绰有余
  3. 方便备份:所有数据都在NAS上,备份简单
  4. 成本分摊:省下一台云服务器的钱
  5. 定时任务:可以设置定时发送消息、执行研究任务

笔者的最终配置

  • 群晖NAS (DSM 7.1)
  • Docker套件已安装
  • 成功部署OpenClaw + 飞书多账号
  • 家人各有一个专属机器人

02 | 镜像拉取:别在群晖界面里傻等

笔者第一个坑就踩在了镜像下载上。

① 官方方法慢得要命

直接在群晖Docker套件里搜索OpenClaw,下载速度感人。笔者等了半小时,进度条才走了10%。

② 这才是正确姿势

bash 复制代码
# 1. 开启群晖SSH(控制面板 → 终端机和SNMP → 启动SSH)
# 2. SSH连接后切换root用户
ssh admin@nas-ip
sudo -i

# 3. 关键:先在自己电脑下载,再导入NAS
# 在自己电脑(网速快的地方):
docker pull openclaw/openclaw:main-slim-amd64
docker save -o openclaw.tar openclaw/openclaw:main-slim-amd64
scp openclaw.tar admin@nas-ip:/volume1/docker/

# 4. 在NAS上导入
docker load -i /volume1/docker/openclaw.tar

为什么这么麻烦? 因为笔者的网络环境下,群晖直连Docker Hub太慢。而电脑下载只要几分钟,再用局域网传文件,速度快了10倍不止。

03 | 端口和网络配置

笔者用的是4000端口,理由很简单:好记。8080、8000这种端口太常见,容易冲突。

① docker启动参数

bash 复制代码
docker run -d \
  --name myclaw \
  --restart always \
  --net=host \
  -v /volume1/ALFRED/myclaw:/home/node/.openclaw \
  ghcr.io/openclaw/openclaw:main-slim-amd64 \
  openclaw gateway --port 4000 --allow-unconfigured

② Gateway绑定模式必须改

默认的Gateway bind modehost,只能在NAS本机访问。想用手机、电脑访问,必须改成LAN

bash 复制代码
docker exec -it myclaw bash
openclaw config 

所有都默认,只改 Gateway bind modeLAN 即可。

04 | 配置过程中的三大深坑

① 跨域问题:origin不被允许

上面改完,可以局域网访问了,还是用4000端口:

根据上次经验,以为这里输入token直接连接以为就可以,结果:

第一次登录时报错Origin not allowed

需要在配置里加:

json 复制代码
{
  "gateway": {
    "allowedOrigins": ["http://nas-ip:4000", "http://localhost:4000"]
  }
}

② HTTPS/localhost限制

配置完跨域,又遇到 Only https or localhost...。群晖默认没有本地浏览器,不能访问localhost。

这个问题比较棘手,最终临时使用这个跳过:

临时解决方案(仅测试)

json 复制代码
{
  "gateway": {
    "dangerouslyDisableDeviceAuth": true
  }
}

⚠️ 警告:这个不安全!只建议在内网测试阶段用。

③ 模型403错误:真费token!

终于能登录了,配置模型时遇到403错误。排查后发现:

  1. 用了收费模型
  2. 账号欠费了
  3. OpenClaw的token消耗比想象中快

解决方案:换用免费模型,或者充值账号。

05 | 配置飞书机器人(多账号版)

按照笔者之前文章配置飞书后,发现一个刚需:帮家人也建立专属机器人。每个家人有自己的飞书账号,各自创建1个或多个机器人。

① OpenClaw的多账号逻辑

在OpenClaw里,每个机器人都相当于一个account。配置多账号时遇到了关键问题:

bash 复制代码
# 原本这样添加账号,按照向导操作
openclaw agents add

坑点:这个命令写的配置文件不规范,超过2个account时会覆盖已有配置。

② 正确的手工配置方法

配置示例,channels部分,最终可用版,截取笔者整段飞书的channels多个accounts的配置:

JSON 复制代码
  "channels": {
    "feishu": {
      "enabled": true,
      "domain": "feishu",
      "mediaMaxMb": 30,
      "connectionMode": "websocket",
      "groupPolicy": "allowlist",

      // ######## 关键:所有账号/机器人放在 accounts 里 ########
      "accounts": {
        // Alfred的飞书机器人
        "english": {
          "appId": "cli_***",
          "appSecret": "******",
          "botName": "白鲸Claw"
        },

        "blog": {
          "appId": "cli_***",
          "appSecret": "******",
          "botName": "小鲸鱼blog专员"
        },

        // Mcdull的飞书机器人
        "wife": {
          "appId": "cli_***",
          "appSecret": "******",
          "botName": "麦兜Claw"
        }
      },

      // ######## 机器人路由:按 botName 绑定不同 Agent ########
      "botdispatch": {
        "enabled": true,
        "routes": [
          // Alfred主机器人 → 通用agent
          {
            "botName": "白鲸Claw",
            "agent": "main"
          },

          // Alfred博客机器人 → 单独agent
          {
            "botName": "小鲸鱼blog专员",
            "agent": "whaleblog"
          },

          // Mcdull的机器人 → 她的agent
          {
            "botName": "麦兜Claw",
            "agent": "wife"
          }
        ]
      }
    }
  },

关键:accounts对应的是飞书账号下建立的具体机器人,而不是飞书账号。

06 | 完整配置流程总结(一图流)

复制代码
[准备阶段]
├── 开启群晖SSH
├── 下载OpenClaw镜像(在自己电脑下)
└── SCP传到NAS并导入

[部署阶段]
├── 创建数据目录
├── docker启动测试(记得改端口和LAN模式)
├── 确认可以正常启动容器稳定运行
└── 访问http://nas-ip:4000

[配置阶段]
├── 解决跨域问题(加allowedOrigins)
├── 临时禁用设备认证(仅测试)
├── 配置模型(注意token费用)
└── 配置多飞书账号(手工编辑openclaw.json)

[使用阶段]
├── 测试家人各自机器人
├── 设置定时任务
└── 去掉不安全设置,启用HTTPS

07 | 使用心得:这个周末值了

虽然整个周末都搭进去了,但结果是值得的:

  1. Always在线:现在全家的AI助手24小时待命
  2. 专属服务:每人有自己的机器人,互不干扰
  3. 定时任务:可以设置每天自动推送定制化信息内容
  4. 研究助手:让它在夜里分析数据,早上直接看结果

举个最简单的例子,比如每晚要练习的口语素材,就可以完全交由它帮忙撰写并定时主动推送给笔者:

08 | 后续关注

  1. 资源关注:目前OpenClaw运行时docker容器内存占用约700MB+,CPU很闲
  2. 定期备份:把数据目录加到Hyper Backup
  3. 安全加固:配置SSL证书,用域名+HTTPS访问
  4. 监控告警:设置资源使用告警,避免NAS过载

写在最后:在「卷」成常态的今天,有个24小时在线的AI助手真的能提升不少效率。虽然配置过程有点折腾,但一次投入,长期受益。

希望这篇NAS部署OpenClaw的踩坑记录能帮到你。如果遇到其他问题,欢迎留言讨论------毕竟,踩过的坑都是经验,分享出来大家一起少走弯路。

相关推荐
深巷wls8 小时前
Openclaw部署+飞书接入(windows环境)
windows·飞书·openclaw
utmhikari8 小时前
【测试人生】变更规则校验Agent研发的一些思路
大数据·人工智能·llm·agent·变更风险·openclaw
奋斗中的小猩猩8 小时前
OpenClaw不安全,Rust写的ZeroClaw给出满意答案
安全·rust·openclaw·小龙虾
孟郎郎9 小时前
OpenClaw 如何更换本地模型基础教程
windows·ai·机器人·ollama·openclaw·小龙虾
cxr82810 小时前
创建专业虚拟一人公司的 Skills 深度对比分析
人工智能·ai智能体·openclaw
love530love11 小时前
OpenClaw搭配LM Studio VS Ollama:Windows CUDA实战深度对比与完全配置指南
人工智能·windows·vllm·ollama·llama.cpp·lm studio·openclaw
全都是泡饃12 小时前
OpenClaw 配置教程:在 macOS 上搭建 AI 助手并与飞书集成
ai·openclaw
nix.gnehc12 小时前
OpenClaw 天气查询Skill开发Demo
人工智能·skill·openclaw
fjhcom13 小时前
OpenClaw 完整部署教程(Windows + Ollama)
windows·ollama·openclaw