不花一分钱,不依赖任何商业服务,打造完全属于你自己的 Vibe Coding 环境。
引子:为什么还有人在坚持 VS Code?
Cursor 和 Windsurf 确实强大,但它们有一个共同点:闭源。你的每一次对话、每一段代码补全请求,都会经过他们的服务器(即使你用了自己的 API Key,编辑器本身的遥测数据仍然会外传)。
对于注重隐私的企业开发者、开源拥趸,或者单纯不想被绑定在任何商业工具上的极客,VS Code + Continue 插件提供了第三条路:
- 完全开源:Continue 的核心代码在 GitHub 上,你可以审计、修改、甚至自托管。
- 任意模型:支持 OpenAI、Anthropic、Google、Azure、本地 Ollama、Groq、Together AI 等几十种模型来源。
- 零厂商锁定:你的对话历史、代码上下文都存储在本地。
- 与 Cursor 接近的能力:多文件编辑、终端命令执行、代码库索引(RepoMap)、自定义 Slash Commands。
本文将手把手教你从零搭建一套免费、高自由度、可离线的 Vibe Coding 工作流。
一、Continue 是什么?
Continue 是 VS Code 的一款开源 AI 插件 (也有 JetBrains 版本),最早发布于 2023 年,2025 年随着 Vibe Coding 热潮迅速成熟。它不提供自己的模型,而是充当 "AI 路由器" ------ 你配置好模型来源(可以是云端 API、本地模型、甚至多个模型混合),它就在编辑器中提供:
- Tab 自动补全:类似 GitHub Copilot 的行内补全
- 聊天侧边栏:与 AI 对话,支持 @ 引用文件、代码块、终端输出
- 多文件编辑:选中多个文件,让 AI 同时修改(类似 Cursor Composer 的精简版)
- 终端命令生成:自然语言生成并执行 Shell 命令
- 代码库上下文:自动构建项目索引(RepoMap),让 AI 理解你的整个代码库
📌 名字由来 :Continue 的作者希望打破"AI 编程助手只是玩具"的印象,鼓励开发者持续在真实项目中使用。
二、安装与初始配置
2.1 安装 VS Code 和 Continue
- 安装 Visual Studio Code(如果还没有)。
- 打开 VS Code,进入扩展市场(Ctrl+Shift+X),搜索
Continue。 - 安装由 "Continue" 官方发布的插件(下载量通常超过 50 万)。
- 安装完成后,左侧活动栏会出现 Continue 的图标(一个对话气泡)。
2.2 配置模型提供方
点击 Continue 图标,打开侧边栏。首次使用时,它会提示你配置模型。
Continue 支持多种模型来源,我推荐以下三种主流配置方式:
方案 A:免费云端模型(零成本,需联网)
- 提供方:Groq(极快推理速度)、Together AI(免费额度大)、Google Gemini(免费但有限流)
- 示例:注册 Groq 账号,获取 API Key,在 Continue 配置文件中添加:
json
"models": [{
"title": "Groq Llama 3",
"provider": "groq",
"model": "llama3-70b-8192",
"apiKey": "YOUR_API_KEY"
}]
方案 B:本地模型(完全离线,隐私最安全)
- 需求:一台至少有 8GB 显存的 GPU(或牺牲速度用 CPU)
- 工具:Ollama(一键运行开源模型)
- 步骤 :
- 安装 Ollama:
curl -fsSL https://ollama.com/install.sh | sh - 拉取代码模型:
ollama pull codellama:7b或qwen2.5-coder:7b - 在 Continue 配置中添加:
- 安装 Ollama:
json
"models": [{
"title": "Ollama Qwen Coder",
"provider": "ollama",
"model": "qwen2.5-coder:7b"
}]
方案 C:国内 API(性价比最高)
- 同 Cursor 篇,使用 DeepSeek、智谱、阿里百炼等。配置方式与 OpenAI 兼容:
json
"models": [{
"title": "DeepSeek V3",
"provider": "openai",
"model": "deepseek-chat",
"apiKey": "YOUR_DEEPSEEK_KEY",
"apiBase": "https://api.deepseek.com/v1"
}]
💡 多模型切换:Continue 允许你添加多个模型,并在聊天界面实时切换,方便对比不同模型的效果。
2.3 开启代码库索引(RepoMap)
为了让 AI 理解你的项目结构,需要开启索引:
- 打开 VS Code 设置(Ctrl+,),搜索
continue.allowRepoMap,勾选。 - 点击 Continue 侧边栏底部的"索引当前工作区"按钮。
- 等待索引完成(首次可能需要几分钟,取决于项目大小)。
索引完成后,AI 在回答时能自动引用项目中相关的函数、类、文件路径。
三、核心功能详解
3.1 聊天侧边栏(基础)
Ctrl + L(Windows/Linux)或Cmd + L(Mac)打开聊天框。- 输入问题,AI 会基于当前打开的文件和 RepoMap 回答。
- 支持
@符号引用:@file:server.js、@folder:src、@terminal(最近的终端输出)。 - 代码块下方会显示"应用"按钮,点击可直接插入或替换文件中的代码。
3.2 Tab 自动补全(行内)
Continue 的自动补全默认使用 tab 键接受建议。它比 GitHub Copilot 更轻量,但效果与模型相关:
- 使用本地小模型(如 CodeLlama 7B)时,补全质量一般,适合简单重复代码。
- 使用云端模型(如 Groq 的 Llama3-70B)时,几乎不输 Cursor。
3.3 多文件编辑(Command)
Continue 的多文件编辑不如 Cursor Composer 成熟,但已具备雏形:
- 在聊天框输入
/edit进入多文件编辑模式。 - 描述你要修改的文件和改动内容,例如:"将
src/utils/date.js中的formatDate函数重命名为formatISODate,并更新所有引用。" - AI 会列出需要修改的文件和具体 diff,你逐一确认后应用。
⚠️ 限制:一次只能处理少量文件(约 5-10 个),大范围重构建议拆分成多次。
3.4 终端命令生成
- 点击 VS Code 终端面板右上角的 Continue 图标(一个闪电),或者输入
/terminal。 - 描述你要的操作,例如:"查找所有包含'TODO'的 .js 文件并统计数量。"
- AI 生成命令,你确认后执行。
这比手动记忆 grep、find 命令方便得多。
3.5 自定义 Slash Commands(进阶技能)
你可以在项目中创建 .continue/prompts 文件夹,里面放 Markdown 文件,每个文件定义一条 Slash Command。
例如创建 code_review.md:
markdown
---
name: code_review
description: 对当前文件进行安全性和规范审查
---
请审查当前打开的代码文件,重点关注:
1. 潜在的 SQL 注入或 XSS 漏洞
2. 未处理的 Promise rejection
3. 硬编码的密钥或密码
4. 与项目代码风格不一致的地方
之后在聊天框输入 /code_review 即可直接调用这条 Prompt。这其实就是 本专栏第四阶段要讲的 Skill 的雏形。
四、与 Cursor / Windsurf 的详细对比
| 维度 | Continue + VS Code | Cursor | Windsurf |
|---|---|---|---|
| 开源 | ✅ 完全开源 | ❌ 闭源 | ❌ 闭源 |
| 模型自由度 | 几十种提供方任意组合 | 仅支持几种官方 + 自定义 OpenAI 兼容 | 支持自定义 OpenAI 兼容 |
| 免费使用成本 | 0 元(自带模型 API 或本地模型) | 免费版有限制 | 完全免费(但需登录) |
| 多文件编辑 | 有(/edit),但较简陋 | Composer 非常强大 | Cascade 同样强大 |
| 终端集成 | 需手动引用 @terminal | 可自动读取,但不如 Windsurf | 自动捕获输出 |
| 代码库索引 | RepoMap,索引质量一般 | RAG 检索,准确度高 | 操作时间线记忆链 |
| 启动速度 | 极快(VS Code 原生) | 一般 | 较慢(功能多) |
| 学习曲线 | 中等(需手动配置模型) | 低(开箱即用) | 低(免费且预设好) |
| 隐私性 | 最高(可完全离线) | 低(遥测数据) | 低(依赖 Codeium 服务器) |
选型建议:
- 如果你是企业开发者,代码不能离开本地网络 → Continue + 本地 Ollama
- 如果你追求零成本且想要最流畅的体验 → Windsurf(免费且功能强大)
- 如果你愿意付 $20/月换取最好的多文件编辑体验 → Cursor
五、国内用户专属配置示例
假设你是一个国内的 React 开发者,想要免费 + 低延迟的方案:
- 安装 VS Code 和 Continue。
- 注册 DeepSeek 账号,获取 API Key(¥1 可以调用很久)。
- 在 Continue 的
config.json中配置:
json
{
"models": [
{
"title": "DeepSeek-Chat",
"provider": "openai",
"model": "deepseek-chat",
"apiKey": "sk-xxxx",
"apiBase": "https://api.deepseek.com/v1"
}
],
"tabAutocompleteModel": {
"title": "DeepSeek-Coder",
"provider": "openai",
"model": "deepseek-coder",
"apiKey": "sk-xxxx",
"apiBase": "https://api.deepseek.com/v1"
}
}
- 开启 RepoMap 索引。
- 开始使用:
Ctrl+L打开聊天,输入"用 React Hooks 写一个倒计时组件"。
整个配置时间不超过 5 分钟,之后每次开发的 AI 调用成本几乎为 0。
六、进阶:自托管 Continue 服务端
对于企业团队,Continue 提供了自托管服务器 continue-server,可以:
- 统一管理团队的 API Key(不用每个成员单独申请)
- 在私有网络内部署模型(如通过 vLLM 加载 DeepSeek V3)
- 审计所有 AI 请求日志
安装方式(Docker):
bash
docker run -d -p 6543:6543 --name continue-server ghcr.io/continuedev/continue-server:latest
然后在 VS Code 的 Continue 设置中将 serverUrl 指向 http://localhost:6543。
这部分内容将在本专栏第六阶段"团队协作"中详细展开。
七、总结:Continue 适合谁?
| 用户类型 | 是否推荐 | 理由 |
|---|---|---|
| 学生/个人开发者,预算有限 | ✅✅ 强烈推荐 | 免费 + 可以接入便宜 API |
| 企业开发,代码隐私要求高 | ✅✅ 强烈推荐 | 可完全离线自托管 |
| 不想折腾配置的初学者 | ⚠️ 一般 | 配置模型需要一点技术背景,不如 Windsurf 开箱即用 |
| 重度多文件重构(每天数十次) | ❌ 不推荐 | 多文件编辑能力较弱,Cursor 更合适 |
八、下篇预告
我们已经介绍了三款核心工具:Cursor、Windsurf、Continue。但还有一类工具剑走偏锋------它们不在图形界面里,而是在终端中运行。
下一篇:《Zed AI:极简主义下的性能与 AI 融合体验》------我们将看看这款用 Rust 编写的超快速编辑器,如何将 AI 原生嵌入到每一个按键中。
思考与练习
- 在 VS Code 中安装 Continue,并配置一个免费的模型提供方(Groq 或 DeepSeek)。
- 尝试使用
/edit命令同时修改两个文件,观察 AI 的表现。 - 创建一个自定义 Slash Command,例如
/explain,让它解释当前文件的复杂度。 - 对比在同一台电脑上,Continue + 本地 7B 模型 与 Cursor 内置 Claude 的响应速度差异。