LLM模型多AI服务 API 接口兼容 CLIProxyAPI

CLIProxyAPI项目是一个为 CLI 提供 OpenAI/Gemini/Claude/Codex 兼容 API 接口的代理服务器。

核心价值:打破AI服务壁垒,复用订阅成本最优解

在AI工具百花齐放的当下,多数开发者都会订阅多种AI服务:有人用Copilot辅助编码,有人依赖Claude Code做代码审查,有人借助Gemini实现多模态需求,但这些服务的原生接口规范各不相同,导致工具调用碎片化,且重复订阅容易造成成本浪费。CLIProxyAPIPlusi的核心价值,就是搭建多AI服务与OpenAI生态的桥梁,实现"一次配置、多端复用",具体优势如下:

复用已有订阅:无需额外购买OpenAI服务,就能让Claude Code、Gemini、Copilot、Qwen Code等已有订阅的AI服务,兼容所有支持OpenAI接口的工具,大幅降低AI使用成本。

解决接口碎片化:将多种AI服务统一封装为OpenAI标准接口(支持/v1/chat/completions、/v1/models等核心接口),让CLI工具、IDE扩展、自定义脚本只需配置一个基础URL,就能调用不同AI服务。

部署门槛极低:支持Docker一键部署、Railway托管部署、Termux移动端部署等多种方式,本地登录一次即可实现远端实例复用,无需复杂的环境配置和凭据搬运。

适配多场景需求:无论是个人开发者的本地调试、团队的多账号负载均衡,还是移动端的轻量化调用,都能完美适配,兼顾灵活性与实用性。

需要注意的是,CLIProxyAPIPlusi是CLIProxyAPI的Fork(衍生)版本,并非官方原生增强,其第三方AI服务支持由社区维护,使用时需遵守各AI服务的可接受使用政策,避免高频自动化请求触发风控。同时,项目不涉及恶意代理或数据窃取,所有凭据均加密存储,保障使用安全。

核心特性:高性能+高兼容,兼顾易用性与扩展性

项目地址

https://github.com/router-for-me/CLIProxyAPI

https://github.com/router-for-me/CLIProxyAPIPlus

CLIProxyAPIPlus是CLIProxyAPI 的 Plus 版本,在原有基础上增加了第三方供应商的支持。

所有的第三方供应商支持都由第三方社区维护者提供,CLIProxyAPI 不提供技术支持。如需取得支持,请与对应的社区维护者联系。

该 Plus 版本的主线功能与主线功能强制同步。

安装CLIProxyAPIPlus

我选择它的理由是PLUS提供 GitHub Copilot 支持(OAuth 登录)

bash 复制代码
# Create deployment directory
mkdir -p cli-proxy-plus && cd cli-proxy-plus

# Create docker-compose.yml
cat > docker-compose.yml << 'EOF'
services:
  cli-proxy-api:
    image: eceasy/cli-proxy-api-plus:latest
    container_name: cli-proxy-api-plus
    ports:
      - "8317:8317"
    volumes:
      - ./config.yaml:/CLIProxyAPI/config.yaml
      - ./auths:/root/.cli-proxy-api
      - ./logs:/CLIProxyAPI/logs
    restart: unless-stopped
EOF

进行配置

bash 复制代码
# Download example config
curl -o config.yaml https://raw.githubusercontent.com/router-for-me/CLIProxyAPIPlus/main/config.example.yaml


# 修改config
1、remote-management下的allow-remote为true
2、remote-management下的secret-key输入密码

# Pull and start
docker compose pull && docker compose up -d

使用管理登录

http://ip:8317/management.html

如果访问不能打开, 查看一下容器日志,若是因为网络无法下载management.html

需要手动下载后映射

参考

https://github.com/router-for-me/Cli-Proxy-API-Management-Center

登录 github copilot

bash 复制代码
docker exec -it cli-proxy-api-plus sh

./CLIProxyAPIPlus  --github-copilot-login
相关推荐
囫囵吞桃16 小时前
Agent出现LLM因为历史工具调用消息而误解工具调用方式的问题
llm·agent
冬奇Lab18 小时前
RAG 系列(十三):查询优化——让问题问得更好
人工智能·llm
故事还在继续吗1 天前
Mac 本地部署大模型
macos·llm·qwen
swipe1 天前
别把 Agent 写成一团 Prompt:用 LangGraph 把多 Agent 系统变成可控状态机
后端·langchain·llm
CoderJia程序员甲1 天前
GitHub 热榜项目 - 周榜(2026-05-10)
人工智能·ai·大模型·llm·github
feasibility.1 天前
多模态模型Qwen-3.5在Llama-Factory使用+llama.cpp量化导出+部署流程(含报错处理)
人工智能·llm·多模态·量化·llama.cpp·vlm·llama-factory
一个处女座的程序猿1 天前
MultiAgent之OpenClaw:QuantClaw的简介、安装和使用方法、案例应用之详细攻略
llm·openclaw·quantclaw
Lazy_zheng1 天前
LangChain + RAG 入门实战:从模型调用到完整 RAG 流水线
langchain·llm·agent
小马过河R1 天前
从官方定义读懂智能体的时代分量
人工智能·语言模型·大模型·llm·agent·ai编程·多模态
一个处女座的程序猿1 天前
OpenAI之CLI:OpenAI CLI的简介、安装和使用方法、案例应用之详细攻略
llm·openai·cli