vscode如何添加ollama本地模型-实现token自由

vscode一直支持的都是云端闭源的模型,例如 GPT Claude等等,当这些闭源模型的免费额度用完之后,则需要付费继续使用。本文介绍的是vscode接入ollama的本地模型,从而实现token自由。

ollama

首先需要到ollama的官网下载ollama应用,详见这里

然后下载机器硬件所能支撑的模型,如下:

vscode

vscode登录GitHub账号之后,进入对应的chat界面,如下:

点击上图红色区域部分,下拉选择管理模型,如下:

点击上图红色部分增加ollama模型,会跳出ollama默认的地址,完成默认的设置完成后,如下

如果想要vscode可以选择本地的模型,还需要将应用的模型变为可见,如上图的qwen2.5和qwen3.5。

在聊天选中对应的本地模型,如qwen3.5:

有了本地的模型之后,在vscode中就不用担心后续token消耗过大了。

本文简单介绍了vscode如何添加ollama本地模型,后续更多的关于AI方面的介绍,将在后续我的专栏《AI安全》专栏详细说明,见这里

相关推荐
用户6937175001384几秒前
Hermes + DeepSeek:AI 真的开始帮我维护 Linux 了
llm·ai编程
shimly1234563 小时前
vscode 很难删除 copilot,如何关闭 copilot 功能?
ide·vscode·copilot
北冥有羽Victoria5 小时前
Django中间件实战:FBV/CBV日志全兼容
数据库·vscode·后端·python·django·sqlite·开源
AINative软件工程5 小时前
Claude Extended Thinking 实战:thinking budget 调多大才合适?
llm
www.025 小时前
(一)windows下反代软件CLIProxyAPI 安装与基础使用(个人记录)
人工智能·windows·算力·token·反代·cliproxyapi
devpotato5 小时前
人工智能(十六)- SSE 流式:让 Agent 像 ChatGPT 一样"边想边说"
langchain·llm·agent
DigitalOcean6 小时前
AI 推理引擎四大模式:无服务推理、专用推理、批量推理与智能路由,怎么选?
llm·aigc·agent
Sonhhxg_柒6 小时前
【LLM】LangChain 深入研究:从原理到实践的全景解析
langchain·llm·agent·langgrah
iCxhust6 小时前
8086/8088单板机VSCode集中环境开发编译(第二版整理)
ide·vscode·嵌入式硬件·编辑器·嵌入式·微机原理·8086最小系统
易生一世6 小时前
JWT详解
json·证书·jwt·token·ai skills