GitHub Copilot CLI现已支持连接本地Ollama/vLLM模型(附配置指南)

2026年4月7日,GitHub Copilot CLI发布更新,正式支持BYOK(自带密钥)及本地模型运行。本文提供完整配置路径,涵盖Ollama、vLLM、Azure OpenAI三种主流场景。

前置条件

目标模型需满足以下技术要求:支持Tool Calling(工具调用);支持Streaming(流式传输);推荐上下文窗口不低于128K token。

场景一:连接Ollama(本地模型)

第一步,确保本地已运行Ollama服务,模型已下载。

复制代码
ollama serve
ollama pull qwen2.5-coder:14b

第二步,配置Copilot CLI环境变量。

bash

复制

复制代码
export COPILOT_MODEL="ollama/qwen2.5-coder:14b"
export COPILOT_API_URL="http://localhost:11434/v1"
export COPILOT_API_KEY="ollama"
export COPILOT_OFFLINE="true"

第三步,验证连接。

bash

复制

复制代码
copilot help providers

场景二:连接vLLM

bash

复制

复制代码
export COPILOT_MODEL="your-model-name"
export COPILOT_API_URL="https://your-vllm-endpoint/v1"
export COPILOT_API_KEY="your-api-key"

确保vLLM服务启动时开启了--enable-auto-tool-choice参数。

场景三:连接Azure OpenAI

bash

复制

复制代码
export COPILOT_MODEL="gpt-4o"
export COPILOT_API_URL="https://your-resource.openai.azure.com/v1"
export COPILOT_API_KEY="your-azure-key"
export COPILOT_AZURE_DEPLOYMENT="your-deployment-name"

离线模式

bash

复制

复制代码
export COPILOT_OFFLINE="true"

开启后,Copilot CLI将禁用遥测,所有请求仅与配置的提供商通信。

子代理继承说明

explore、task、code-review等子代理会自动继承用户配置的提供商,无需额外设置。

故障排查

依次检查:目标服务是否正在运行;API地址是否正确(含/v1后缀);API Key是否有效;模型是否支持Tool Calling。

相关推荐
无籽西瓜a2 小时前
【西瓜带你学设计模式 | 第十五期 - 策略模式】策略模式 —— 算法封装与动态替换实现、优缺点与适用场景
java·后端·设计模式·软件工程·策略模式
Word码2 小时前
接口自动化测试实战项目
软件测试·python·功能测试·集成测试·实战项目
孙同学20202 小时前
如何将 JSON 数据转换为 Excel 工作表
python·json·excel
珍朱(珠)奶茶2 小时前
Spring Boot3整合FreeMark、itextpdf 5/7 实现pdf文件导出及注意问题
java·spring boot·后端·pdf·itextpdf
llm大模型算法工程师weng2 小时前
Python拉取视频流的性能优化实战
开发语言·python·性能优化
Lauren_Blueblue2 小时前
第十六届蓝桥杯省赛Python研究生组-F串
python·算法·蓝桥杯·算法基础
kaico20182 小时前
面向对象和高级特性
开发语言·python
曲幽2 小时前
告别手写 API 胶水代码:FastAPI 与 Vue 的“契约自动机” OpenAPI 实战
python·typescript·vue·fastapi·web·swagger·openapi·codegen
星辰_mya2 小时前
深度全面学习负载均衡Ribbon/Spring Cloud LoadBalancer
后端·spring cloud·面试·负载均衡·架构师