continue插件实现IDEA接入本地离线部署的deepseek等大模型

文章目录

前言

亲爱的家人们,创作很不容易,若对您有帮助的话,请点赞收藏加关注哦,您的关注是我持续创作的动力,谢谢大家!有问题请私信或联系邮箱:fn_kobe@163.com

前置条件 :本地或者私有服务器上的的ollama已经部署有deepseek、llama大模型 。若没有部署,参考我之前的博客(Ollama本地部署deepseek

一、IDEA安装continue

步骤1 :file→setting→plugins→检索continue(可能存在IDEA版本太低检索不到continue插件的问题,更新IDEA版本即可 ),然后安装continue插件(默认安装的是最新版本,笔者当时安装最新版本是1.0.13 ,在IDEA的模型选择UI适配有问题,更换后的版本是0.0.83,具体的更换步骤如步骤3所示)。

步骤2 :出现continue图标表示安装成功。

步骤3 :更换continue版本解决IDEA中模型选择UI适配的问题

1、进入continue插件版本适配IDEA的网址,选择如图所示的插件版本点击download下载,文件格式为zip。

2、打开IDEA:依次点击 file→setting→plugins→检索continue→设置图标

继续install plugins from desk

选择刚才下载的continue-intellij-extension-0.0.83.zip文件,然后IDEA会自动安装,再重启IDEA。

二、continue部署本地大模型

步骤:4 :点击+,选择add chat model

步骤5 :按图1234所示操作,然后点击connect。

本地deepseek、llama3模型成功连接如图所示。

三、continue聊天窗口使用deepseek R1

写一个Java排序算法

具体效果如下:

四、continue批量接入硅基流动的模型API

硅基流动网址(如何申请API的过程有不懂同学私聊),另外config.json文件中的model名称要和硅基流动网址的模型广场的名称一致(特别注意)。

相关推荐
邦爷的AI架构笔记1 天前
踩坑3天后,我把公司的AI接口全换成了多模型路由——GPT-6和Claude Opus 4.7同时上线的这周
人工智能·后端
威迪斯特1 天前
项目解决方案:某连锁餐饮集团AI后厨与运营安全建设解决方案
人工智能·安全·项目解决方案·ai实时分析·智能餐饮管理·ai视频识别·智能视频分析硬件
leaves falling1 天前
C/C++ 的内存管理,函数栈帧详讲
java·c语言·c++
文静小土豆1 天前
Java 应用上 K8s 全指南:从部署到治理的生产级实践
java·开发语言·kubernetes
上海锝秉工控1 天前
总线编码器:工业自动化的“智慧神经”
大数据·人工智能·自动化
海海不掉头发1 天前
小白入门大模型强化学习博客
人工智能
ZHANG13HAO1 天前
Android 13 特权应用(Android Studio 开发)调用 AOSP 隐藏 API 完整教程
android·ide·android studio
信创DevOps先锋1 天前
2025项目管理工具生态革命:AI重构协作边界与国产化崛起
人工智能·重构
互联网科技看点1 天前
AtlasX Protocol 获 200 万美元种子轮融资
大数据·人工智能·区块链
zhimingwen1 天前
初探 Java 後端開發:解決 macOS 環境下 Spring Boot 項目啟動的各類「坑」
java·spring boot