GitHub Copilot CLI现已支持连接本地Ollama/vLLM模型(附配置指南)

2026年4月7日,GitHub Copilot CLI发布更新,正式支持BYOK(自带密钥)及本地模型运行。本文提供完整配置路径,涵盖Ollama、vLLM、Azure OpenAI三种主流场景。

前置条件

目标模型需满足以下技术要求:支持Tool Calling(工具调用);支持Streaming(流式传输);推荐上下文窗口不低于128K token。

场景一:连接Ollama(本地模型)

第一步,确保本地已运行Ollama服务,模型已下载。

复制代码
ollama serve
ollama pull qwen2.5-coder:14b

第二步,配置Copilot CLI环境变量。

bash

复制

复制代码
export COPILOT_MODEL="ollama/qwen2.5-coder:14b"
export COPILOT_API_URL="http://localhost:11434/v1"
export COPILOT_API_KEY="ollama"
export COPILOT_OFFLINE="true"

第三步,验证连接。

bash

复制

复制代码
copilot help providers

场景二:连接vLLM

bash

复制

复制代码
export COPILOT_MODEL="your-model-name"
export COPILOT_API_URL="https://your-vllm-endpoint/v1"
export COPILOT_API_KEY="your-api-key"

确保vLLM服务启动时开启了--enable-auto-tool-choice参数。

场景三:连接Azure OpenAI

bash

复制

复制代码
export COPILOT_MODEL="gpt-4o"
export COPILOT_API_URL="https://your-resource.openai.azure.com/v1"
export COPILOT_API_KEY="your-azure-key"
export COPILOT_AZURE_DEPLOYMENT="your-deployment-name"

离线模式

bash

复制

复制代码
export COPILOT_OFFLINE="true"

开启后,Copilot CLI将禁用遥测,所有请求仅与配置的提供商通信。

子代理继承说明

explore、task、code-review等子代理会自动继承用户配置的提供商,无需额外设置。

故障排查

依次检查:目标服务是否正在运行;API地址是否正确(含/v1后缀);API Key是否有效;模型是否支持Tool Calling。

相关推荐
安德鲁20225 小时前
Spring Boot + Undertow 全栈架构深度剖析时序图
后端
码事漫谈5 小时前
AI 正在重塑职场:有人乘风破浪,有人悄然掉队
后端
penngo5 小时前
# 使用Claude Code开发植物大战僵尸游戏(pygame,附源码)
python·游戏·pygame
hhb_6185 小时前
Groovy语法进阶与工程实践指南
开发语言·python
用户97436970725286 小时前
5分钟搭建企业级实时消息推送系统
后端·websocket
counting money6 小时前
Spring框架基础(配置篇)
java·后端·spring
hmywillstronger6 小时前
Rhino 中文字方向问题的解析与解决方案
python
生活真难6 小时前
SpringCloud - 任务调度 - xxl-job
后端·spring·spring cloud
AI技术增长6 小时前
Pytorch图像去噪实战(四):Attention UNet图像去噪实战,让模型重点恢复边缘和纹理区域
人工智能·pytorch·python
2401_833033626 小时前
如何修复固定定位头部容器中悬浮下拉菜单的错位问题
jvm·数据库·python