VS Code使用LLM辅助编程,主要有三种途径。
安装AI编程助手插件、搭建自定义的AI工作流、或直接切换到一个AI原生的代码编辑器。
这里以VS Code + Continue编程插件为例示例说明。
这里只限定Continue开源插件,Continue的企业版功能则不在此讨论。
1 Continue插件
1.1 continue介绍
Continue 是一款完全开源的 VS Code 插件。它采用 Apache 2.0 许可证进行分发。
Continue开源、高度可定制化的AI编程助手,可以无缝集成多种AI模型。
用户可以在对话界面中提及某个文件或代码块,让LLM更好滴理解上下文。
1.2 continue架构
ontinue 项目采用模块化的架构设计,核心代码主要包含以下部分。
| 模块 | 主要职责 |
|---|---|
| core/ | 核心业务逻辑,如与LLM交互、代码编辑流处理等,可复用于不同IDE。 |
| extensions/ | 具体IDE(如 VS Code、JetBrains)的插件实现代码。 |
| gui/ | 基于React 的用户界面代码。 |
| docs/ | 项目的文档源码。 |
2 配置Continue
Continue支持OpenAI、Deepseek等官方模型,也支持本地Ollama或其他工具部署的模型。
在模型准备好后,就可以尝试在VS配置Continue了。
2.1 安装插件
打开VS Code,点击左侧的"扩展"图标(或按 Ctrl+Shift+X)。
在搜索框中输入"Continue",找到由"Continue Dev"发布的官方插件。
然后点击安装。
2.2 配置插件
安装完成后,VS Code左侧活动栏会出现Continue的图标,类似聊天气泡。
点击它,然后点击聊天面板右上角的齿轮图标,选择Open Config File。
这会打开一个 config.yaml文件。
将里面LLM的配置替换为刚才准备的LLM,包括模型名称、apiBase、apiKey等。
具体包括配置用户快速代码补全的模型、以及用户复杂聊天和编程任务的模型。
oder-1.5B用于快速的代码补全,将Qwen2.5-Coder-7B用于复杂的聊天和任务-6。
continue yaml配置示例如下。
# config.yaml
name: 'local-deepseek'
version: '1.0.0'
schema: v1
models:
- name: 'Local DeepSeek Coder'
provider: ollama # 提供商设为 ollama
model: 'deepseek-coder:6.7b' # 模型名称需与 `ollama pull` 时使用的完全一致
apiBase: 'http://localhost:11434' # Ollama 服务默认地址
tabAutocompleteModel:
name: 'Local DeepSeek Coder Autocomplete'
provider: ollama
model: 'deepseek-coder:6.7b'
apiBase: 'http://localhost:11434'
2.3 测试插件
保存配置文件后, 差不多配置完成,现在就可以在VS Code里用上LLM了。
1)聊天与生成
点击侧边栏的Continue图标,在底部的输入框中用自然语言提问。
比如"用Python写一个读取CSV文件的函数",AI就会生成代码。
2)内联自动补全
在你代码的时候,Continue会根据上下文给出灰显的代码建议,按 Tab 键就可以直接接受。
3)代码解释与优化
选中一段代码,右键菜单会看到如下选项。
"Continue: Explain this Code "或"Continue: Improve this Code"。
选中可以让LLM帮分析或重构。
3 使用技巧
3.1 精准提问
就像跟同事/同学沟通一样,清晰具体的指令能获得更好的结果。
1)提供上下文
提问时包含相关代码、文件路径或错误日志。可以用@符号来引用当前文件-33。
2)明确目标
告诉AI你希望它完成什么任务,例如:"写一个函数,接收一个列表,返回去重后的新列表。"
3.2 迭代&细化
将LLM视为一个可以不断沟通的初级伙伴。
如果第一次结果不满意,可以继续对话引导AI修正。
如果对生成的代码不满意,可以要求它:
"用更简洁的方式重写这个函数"或"为这个类增加完整的类型注解"。
reference
continue