如何在 Visual Studio Code 中使用 DeepSeek R1 和 Cline?

让我们面对现实吧:像 GitHub Copilot 这样的 AI 编码助手非常棒,但它们的订阅费用可能会在你的钱包里烧一个洞。进入 DeepSeek R1 --- 一个免费的开源语言模型,在推理和编码任务方面可与 GPT-4 和 Claude 3.5 相媲美。将它与 Cline 配对,Cline 是一个 VS Code 插件,可将这个 AI 变成一个成熟的编码代理,你就得到了一个强大的设置,可以自主编写、调试甚至执行代码------所有这些都不需要花一分钱。

在本教程中,我将引导您了解您需要了解的所有内容,从安装 ++Cline++ 到为您的项目优化 ++DeepSeek R1++。让我们开始吧!

DeepSeek R1 有什么特别之处?

1.免费(是的,真的!

与专有模型不同,DeepSeek R1 是完全开源的,并且可用于商业用途。没有代币限制,没有隐藏费用------只有原始的 AI 能力。

2.可与付费模型相媲美的性能

DeepSeek R1 在编码、数学和逻辑推理方面表现出色。例如,它的 32B 参数变体在代码生成基准测试中优于 OpenAI 的 o1-mini,其 70B 模型在复杂任务中与 Claude 3.5 Sonnet 相匹配。

3.灵活的部署选项

在本地运行它以保护隐私和速度,或使用 DeepSeek 经济实惠的 API(低至每 100 万个令牌 0.01 美元)进行基于云的访问。

使用 Cline 在 VS Code 中设置 DeepSeek R1

第 1 步:安装 Cline 插件

1.打开 VS Code 并导航到 Extensions 选项卡。

2.搜索**"Cline"**并安装它。

3.单击左侧边栏中的机器人图标以激活 Cline 。

第 2 步:选择您的 DeepSeek R1 工作流程

选项 A:本地设置(免费、隐私优先)

1.安装 Ollama :从 ++ollama.com++ 下载它以管理本地 AI 模型。

2.拉取模型:在终端中,运行:

复制代码
ollama pull deepseek-r1:14b  # For mid-tier hardware (e.g., RTX 3060)  

Smaller models like 1.5b work for basic tasks, but 14B+ is recommended for coding . 像 1.5b 这样的较小模型适用于基本任务,但建议使用 14B+ 进行编码。

配置 Cline

  • 将 API 提供程序设置为 "Ollama"。
  • 输入 http://localhost:11434 作为 基本 URL,然后选择您的模型(例如,deepseek-r1:14b) 。

点击 "Lets go",您现在可以使用它了。

选项 B:OpenRouter 集成(灵活的模型切换)

对于希望通过单个 API 密钥访问多个 AI 模型(包括 DeepSeek R1)的开发人员,OpenRouter 提供了一种简化的解决方案。如果您偶尔需要将输出与 GPT-4 或 Claude 等模型进行比较,但希望将 DeepSeek R1 作为默认模型,那么这是理想的选择。

第 1 步:获取您的 OpenRouter API 密钥

1.访问 ++OpenRouter.ai++ 并注册。

2.导航到 API 密钥并创建新密钥。

可选:在账户设置中启用支出限额以进行成本控制。

第 2 步:为 OpenRouter 配置 Cline

  1. 在 VS Code 中,打开 Cline 的设置。

  2. 选择**"OpenAI 兼容"**作为 API 提供者。

  3. Base URL (基本 URL ) 设置为 https://openrouter.ai/api/v1

  4. 粘贴您的 OpenRouter API 密钥。

  5. Model ID (模型 ID ) 字段中,输入 deepseek/deepseek-chat

第 3 步:测试集成

向 Cline 询问编码问题以确认设置:

如果配置正确,DeepSeek R1 将在 Cline 的界面中生成带有解释的代码。

为什么选择 OpenRouter?

  • 多模型访问:在 DeepSeek R1 和 50+ 其他模型(例如 GPT-4、Claude)之间轻松切换,而无需重新配置 APIs4。

  • 成本透明度:在一个控制面板中跟踪所有模型的代币使用情况4。

  • 回退支持:如果 DeepSeek R1 的 API 过载,自动将请求路由到备份模型4。

Cost Considerations 成本注意事项

虽然 OpenRouter 的 DeepSeek R1 定价与直接 API 成本(每百万输入令牌 ~0.01 美元)密切相关,但请务必查看其++定价页面++以获取实时费率。对于重度用户,OpenRouter 的统一计费可以简化费用管理25。

Apifox 集成的高级用例

一旦你的 DeepSeek R1 + Cline 设置运行起来,使用 Apifox 来:

  1. 测试 API 终端节点:以编程方式验证 DeepSeek 的响应。

  2. 自动化工作流程:使用 API 调用生成 Chain Cline 的代码(例如,将生成的脚本部署到 AWS)。

  3. 监控性能:跟踪一段时间内的延迟和准确性。

Deepseek API 直接调用教程

如果 API Key 有了之后,我们就可以调用它了,通过 Apifox 集成 Deepseek API,可快速完成 API 调试。

第一步:填写 API Key

获得 API 密钥后,你可以在 API 文档中开始使用它,无需编写代码:

  1. 访问由 Apifox 创建的 ++DeepSeek 在线 API 文档++。
  1. 打开 Apifox 桌面:点击页面上的「Run in Apifox」,在弹出的窗口中点击「在桌面上打开」,引导你进入 Apifox 的桌面版本(如果你尚未下载该应用程序,则需要先下载)。

++下载最新版 Apifox++

  1. 输入你的 API 密钥:打开文档后,在 Apifox 中选择一个接口,点击「Auth」,选择「Bearer Token」。然后复制之前创建的令牌,将其粘贴「Token」上密钥保存在本地,因此不存在泄露风险。

还有一种方法设置 API Key,在项目右上角的 "环境管理" 中,点击"正式环境",这个环境变量的值就是上面创建的 Deepseek API 的 API Key,添加完成后保存即可。

第二步:调用 API

1.点击"发送"即可调用 API。如果调用成功,API 响应将显示在下面的页面中。

2.修改 Body 中的 messages 里的信息,你就可以实现不同的对话。

3.如果要实现流式输出,可以将 stream 的值改为 true

💡

通过指定 model='deepseek-chat' 即可调用 DeepSeek-V3。 通过指定 model='deepseek-reasoner',即可调用 DeepSeek-R1。

相关推荐
慢一点会很快1 小时前
【Tools】VScode远程调试linux服务器(打断点可视化界面方式)
linux·服务器·vscode
-曾牛2 小时前
Spring AI 与 Hugging Face 深度集成:打造高效文本生成应用
java·人工智能·后端·spring·搜索引擎·springai·deepseek
王光环3 小时前
vscode与keil的乱码不兼容问题
ide·vscode·编辑器
萑澈3 小时前
迁移 Visual Studio Code 设置和扩展到 VSCodium
ide·vscode·编辑器
大白技术控6 小时前
浙江大学 deepseek 公开课 第三季 第3期 - 陈喜群 教授 (附PPT下载) by 突破信息差
人工智能·互联网·deepseek·deepseek公开课·浙大deepseek公开课课件·deepseek公开课ppt·人工智能大模型
胡斌附体6 小时前
idea查看pom文件依赖
java·ide·intellij-idea·maven依赖
虚空之月&&轮舞者8 小时前
Python与矢量网络分析仪3671E:自动化测试(Vscode)
网络·vscode·python·射频工程
早上好啊! 树哥17 小时前
android studio开发:设置屏幕朝向为竖屏,强制应用的包体始终以竖屏(纵向)展示
android·ide·android studio
阿幸软件杂货间18 小时前
VSCode1.101.0便携版|中英文|编辑器|安装教程
vscode·编辑器
tmy_starlight1 天前
2025年全新 GPT 4.5 AI 大模型 国内免费调用
ide·gpt·编辑器