docker部署New-API

Docker 部署 New-API:OpenClaw 虾粮管理不再愁,一站式搞定多 AI 模型接口聚合与管控

近期 OpenClaw 的爆火,让不少朋友体验到了 AI Agent 的强大与便捷。但随之而来的却是现实的痛点:为了降低使用成本,很多朋友会从各类渠道收集免费的 AI 接口 Token(如晴天AI、OpenRouter等)。可这些零散的 Token 不仅来源杂、有效期不一,还面临着调用量难统计、权限难管控、接口格式不统一的问题。

  • 管理混乱:不同模型的 Token 调用规则不同,手动切换接口地址和密钥耗时耗力。
  • 调用失控:免费 Token 额度有限,稍不注意就会超出限制,导致 OpenClaw 调用中断。

New-API 作为一款 AI 接口聚合管理平台,恰好解决了 OpenClaw 用户的 Token 管理难题:它能将所有免费/付费 Token 统一收纳,通过标准化的接口格式对接 OpenClaw,同时提供精细化的额度管控、调用统计、限流保护等能力。你只需通过 New-API 的统一令牌,就能让 OpenClaw 稳定调用各类 AI 模型,既盘活了零散的免费 Token 资源,又规避了管理混乱和调用失控的问题。


什么是 New-API?

New-API 是基于 One API 二次开发的新一代大模型网关与 AI 资产管理系统。它的核心是为开发者/团队提供统一的大模型接口管理能力,只需对接这一个网关,即可无缝调用各类主流大模型接口,显著降低多模型集成与管理成本。

核心特性

  • 体验与兼容:全新 UI、多语言支持,兼容原版 One API 数据库,迁移成本低。
  • 计费与管控:支持按调用次数收费、缓存计费、渠道加权随机分配;提供数据看板、令牌分组/模型限流、用户级限流等精细化管控能力。
  • 功能拓展:支持在线充值、密钥查额度;兼容 Rerank 模型、OpenAI Realtime API、Claude Messages 格式等;支持通过模型名称后缀自定义推理策略。
  • 部署与适配:支持 Docker/宝塔面板等多方式部署;适配 OpenAI、Azure、Claude 等数十种渠道;可对接 Midjourney-Proxy、Suno API 等扩展能力。
  • 灵活易用:支持 LinuxDO、Telegram、OIDC 等多授权登录;提供完整的接口文档与社区支持,简单配置即可快速上手。

使用场合

  • 个人/小团队 AI 接口管理:聚合多平台 API 密钥,统一管理和分发,降低多供应商接口对接成本。
  • AI 服务二次分发:支持令牌额度管控、用户分组,适合小规模对外提供 AI 接口服务(需遵守合规要求)。
  • 多场景 AI 能力调用:覆盖聊天、嵌入、音频、图像生成等需求,适配跨境业务(代理配置)、本地化部署等场景。
  • 轻量化部署需求:单可执行文件、Docker 一键部署,开箱即用,适合无复杂运维条件的个人/小团队快速落地 AI 应用。

Docker Compose 一键搭建

1. 创建目录结构

安装前,先在 Docker 文件夹中新建一个 new-api 文件夹,用于持久化配置数据。

2. 准备 Compose 文件

飞牛OS 为例(其他系统类似):

  • 打开 Docker -- Compose -- 新增项目。
  • 项目名称填 new-api,路径选择刚才创建的 new-api 文件夹。
  • 选择 创建 docker-compose.yml,将以下代码复制粘贴进去:
yaml 复制代码
version: '3'

services:
  new-api:
    image: calciumion/new-api:latest
    container_name: new-api
    ports:
      - "3001:3000"   # 左侧端口可按需修改,如 3002:3000
    volumes:
      - ./data:/data
    restart: always
  • 勾选"创建项目后立即启动",点击"创建"。

注意 :如果 3001 端口被占用,可以修改为其他端口(如 3002)。

bash 复制代码
# x86镜像
docker pull registry.cn-hangzhou.aliyuncs.com/qiluo-images/new-api:latest
# arrch64
docker pull registry.cn-hangzhou.aliyuncs.com/qiluo-images/linux_arm64_new-api:latest

Docker CLI 命令

bash 复制代码
docker run -itd \
  --name new-api \
  --restart=always \
  --privileged=true \
  -p 3001:3000 \
  -v /data/new:/data \
  calciumion/new-api:latest

Windows 系统路径说明

如果在 Windows 的 CMD 或 PowerShell 中运行,需要调整路径写法:

CMD:

bash 复制代码
docker run -d ^
  --name new-api ^
  -p 3001:3000 ^
  -v %cd%/data:/data ^
  --restart always ^
  calciumion/new-api:latest

PowerShell:

bash 复制代码
docker run -d `
  --name new-api `
  -p 3001:3000 `
  -v ${PWD}/data:/data `
  --restart always `
  calciumion/new-api:latest

3. 部署成功

看到容器状态为"正在运行",说明部署成功。


配置服务

1. 初始化管理员账号

启动成功后,访问 http://<你的服务器IP>:3001 进入 New-API 登录页面。

系统提示数据库初始化。因为我们做了持久化映射,直接确认即可。

接下来设置管理员账号和密码。

2. 修改密码与初始化

登录后,进入 个人设置 页面,修改初始密码,避免调用凭证泄露。

选择使用模式(个人使用可选"自用模式"),完成初始化设置。


添加 AI 渠道

渠道是 New-API 对接底层 AI 模型的核心。以添加 硅基流动 渠道为例:

1. 获取 API Key

  • 注册 硅基流动(使用邀请链接注册送 16 元代金券)。
  • 进入【控制台】→【API 密钥】,点击"创建 API 密钥",命名后复制保存(格式如 sk-xxxxxx)。

2. 在 New-API 中添加渠道

  • 点击左侧 渠道管理添加渠道
  • 类型 :选择 Siliconflow(下拉菜单中有)。
  • 名称 :自定义,如 OpenClaw 硅基调用
  • 密钥:粘贴刚才复制的 API Key。
  • 用户组 :保持 default
  • 模型 :点击 获取模型列表 ,等待加载。
    • 勾选你常用的模型,例如:
      • 推理:Pro/DeepSeek-ai/DeepSeek-V3.2
      • 生图:Kwai-Kolors/Kolors
      • 嵌入:BAAI/bge-m3
      • 语音:TeleAI/TeleSpeechASR
  • 点击 提交

回到渠道列表,点击新渠道右侧的 测速,即可看到模型响应时间。

3. 添加更多渠道(示例)

  • 晴天AI (假设为 OpenAI 兼容):
    • 类型选 OpenAI,API 地址不加 /v1,填写密钥,手动添加模型 ID。
  • OpenRouter
    • 类型直接选 OpenRouter,只需填写 API Key,无需地址。

配置完成后,渠道列表就丰富起来了。


创建访问令牌

令牌是 OpenClaw 等应用调用 New-API 聚合接口的凭证。

  • 点击左侧 令牌管理添加令牌
  • 名称 :自定义,如 OpenClaw 调用令牌
  • 有效期:按需设置(如永不过期)。
  • 额度:可设置无限额度或固定金额。
  • 选择分组:对应权限组(可在"用户组"中提前配置调用权限、RPM 限制)。
  • 权限范围:可限制可调用的模型。
  • 点击 提交 ,生成令牌(格式如 sk-xxxx),请妥善保存

测试接口调用

局域网内使用(以 Cherry Studio 为例)

  1. 在 Cherry Studio 中添加提供商:

    • 提供商名称:newapi
    • 提供商类型:下拉选择 New-API
    • API 密钥:填写刚才生成的 sk-xxxx 令牌
    • API 地址:http://IP:3001(替换为你的内网 IP 和端口)
  2. 点击"管理",即可看到 New-API 中添加的所有模型。点击模型名后的 + 号添加。

  3. 点击令牌右侧的"检测",选择一个模型测试连接。

    • 显示"连接成功"即配置无误。
  4. 回到首页,即可在模型下拉框中自由切换使用。

在 OpenClaw 中配置

openclaw.json 中补充或修改配置:

json 复制代码
{
  "models": {
    "mode": "merge",
    "providers": {
      "newapi": {
        "baseUrl": "http://IP:3001/v1",
        "apiKey": "你的API_KEY",
        "api": "openai-completions",
        "models": [
          { "id": "Pro/DeepSeek-ai/DeepSeek-V3.2", "name": "DeepSeek V3.2" },
          { "id": "Kwai-Kolors/Kolors", "name": "Kolors 生图" }
        ]
      }
    }
  }
}

也可以直接将上述信息发给 OpenClaw 让它自动配置。

外网访问

如果需要在外网使用(如在公司访问家里的 New-API),可以采用以下方案:

  • Cloudflare Tunnels:创建隧道将内网服务暴露到公网。
  • 节点小宝:内网穿透,生成公网域名。
  • 星空组网:组建虚拟局域网。

以 Cloudflare Tunnels 为例,将公网域名指向 New-API 服务后,在 OpenClaw 中将 baseUrl 改为公网域名即可。


结语

OpenClaw 的走红,本质是大家对 AI 应用需求的爆发。它极大地推动了大众在思想层面的接受程度:原来 AI 还可以做这么多事。

对于普通玩家而言,网络上现有的免费 Key 基本能满足体验需求。而 New-API 正是为 OpenClaw 这类应用量身打造的 AI 能力底座,它极大地降低了多 Token 管理的成本,提升了调用的稳定性和体验。

如果你也在为管理各种 AI 接口而头疼,不妨试试用 Docker 一键部署 New-API,开启你的"一站式 AI 接口管控"之旅。