2026年4月7日,GitHub Copilot CLI发布更新,正式支持BYOK(自带密钥)及本地模型运行。本文提供完整配置路径,涵盖Ollama、vLLM、Azure OpenAI三种主流场景。
前置条件
目标模型需满足以下技术要求:支持Tool Calling(工具调用);支持Streaming(流式传输);推荐上下文窗口不低于128K token。
场景一:连接Ollama(本地模型)
第一步,确保本地已运行Ollama服务,模型已下载。
ollama serve
ollama pull qwen2.5-coder:14b
第二步,配置Copilot CLI环境变量。
bash
复制
export COPILOT_MODEL="ollama/qwen2.5-coder:14b"
export COPILOT_API_URL="http://localhost:11434/v1"
export COPILOT_API_KEY="ollama"
export COPILOT_OFFLINE="true"
第三步,验证连接。
bash
复制
copilot help providers
场景二:连接vLLM
bash
复制
export COPILOT_MODEL="your-model-name"
export COPILOT_API_URL="https://your-vllm-endpoint/v1"
export COPILOT_API_KEY="your-api-key"
确保vLLM服务启动时开启了--enable-auto-tool-choice参数。
场景三:连接Azure OpenAI
bash
复制
export COPILOT_MODEL="gpt-4o"
export COPILOT_API_URL="https://your-resource.openai.azure.com/v1"
export COPILOT_API_KEY="your-azure-key"
export COPILOT_AZURE_DEPLOYMENT="your-deployment-name"
离线模式
bash
复制
export COPILOT_OFFLINE="true"
开启后,Copilot CLI将禁用遥测,所有请求仅与配置的提供商通信。
子代理继承说明
explore、task、code-review等子代理会自动继承用户配置的提供商,无需额外设置。
故障排查
依次检查:目标服务是否正在运行;API地址是否正确(含/v1后缀);API Key是否有效;模型是否支持Tool Calling。