vscode如何添加ollama本地模型-实现token自由

vscode一直支持的都是云端闭源的模型,例如 GPT Claude等等,当这些闭源模型的免费额度用完之后,则需要付费继续使用。本文介绍的是vscode接入ollama的本地模型,从而实现token自由。

ollama

首先需要到ollama的官网下载ollama应用,详见这里

然后下载机器硬件所能支撑的模型,如下:

vscode

vscode登录GitHub账号之后,进入对应的chat界面,如下:

点击上图红色区域部分,下拉选择管理模型,如下:

点击上图红色部分增加ollama模型,会跳出ollama默认的地址,完成默认的设置完成后,如下

如果想要vscode可以选择本地的模型,还需要将应用的模型变为可见,如上图的qwen2.5和qwen3.5。

在聊天选中对应的本地模型,如qwen3.5:

有了本地的模型之后,在vscode中就不用担心后续token消耗过大了。

本文简单介绍了vscode如何添加ollama本地模型,后续更多的关于AI方面的介绍,将在后续我的专栏《AI安全》专栏详细说明,见这里

相关推荐
π同学2 小时前
ESP-IDF+vscode开发ESP32第四讲——I2C
vscode·esp32·i2c
风静如云2 小时前
VSCode:控制窗口默认缩放
vscode
monsion3 小时前
Claude Code 的三种多 Agent 模式:Coordinator、Swarm 和 Fork
人工智能·vscode·个人开发
诸神缄默不语4 小时前
论文阅读笔记:Claude如何思考
论文阅读·笔记·大模型·llm·大语言模型·claude·大规模预训练语言模型
小夭。4 小时前
工具使用-windows在vscode内集成opencode
ide·vscode·编辑器
踩着两条虫5 小时前
VTJ.PRO 在线应用开发平台的LLM模型管理与配置
低代码·llm·ai编程
deep_drink5 小时前
1.1、Python 与编程基础:开发环境、基础工具与第一个 Python 项目
开发语言·人工智能·python·llm
老师用之于民5 小时前
【DAY35】ARM开发:UART 异步串行通信原理、通信标准及模块配置详解
c语言·汇编·arm开发·vscode
倾颜5 小时前
我是怎么把 Multi-Tool Runtime 升级成第一层 Skill Runtime 的
前端·llm·next.js