AI大模型之采用DeepSeek-Coder:6.7b + Ollama + Continue离线部署

一、流程梳理

1、外网一次性下载清单(仅需这 1 次联网)

  1. 核心工具安装包


Ollama 安装包https://ollama.com/download
Continue IDEA 插件 ZIPhttps://plugins.jetbrains.com/plugin/22707-continue/versions

  1. 推荐模型下载(选 1 个即可)

模型下载命令需在外网环境执行,执行前确保 Ollama 已安装:

方案 A:中文首选(后端项目分析最优)

bash 复制代码
# 通义千问2 7B 量化版,中文极强,代码理解好,4GB显存可跑
ollama pull qwen2:7b

方案 B:代码专用(DeepSeek Coder)

bash 复制代码
# DeepSeek Coder 6.7B 量化版,代码理解拉满,中文支持优秀
ollama pull deepseek-coder:6.7b

方案 C:低配电脑(8G 内存可用)

bash 复制代码
# Qwen2 1.5B 量化版,体积小,速度快,适合低配机器
ollama pull qwen2:1.5b
  1. 下载完成验证
    Ollama 安装包:文件大小约 200MB 左右
    Continue 插件 ZIP:文件大小约 10-20MB
    模型文件:默认存储在 C:\Users\你的用户名.ollama\models 目录,qwen2:7b 完整大小约 4.5GB,deepseek-coder:6.7b 约 4GB

2、内网断网环境 安装配置 一步一命令核对表

全程断网,所有操作均在本地完成,无任何外网请求

🔴 阶段 1:安装 Ollama 环境

🟠 阶段 2:安装 Continue IDEA 插件

🟡 阶段 3:配置 Continue 连接本地模型(核心步骤)

以 Qwen2:7b 为例,DeepSeek 仅需修改模型名即可:

(1) 打开 IDEA 右侧 Continue 面板 → 点击右上角 ⚙️ 设置图标 → 选择 Open Settings;

(2)打开 config.json 配置文件,完全替换 models 数组为以下配置(直接复制):

bash 复制代码
{"models": [{"title": "Local Qwen2 7B","provider": "openai","model": "qwen2:7b","apiBase": "http://localhost:11434/v1","apiKey": "ollama","contextWindow": 32768,"systemMessage": "你是一个专业的 Java 后端开发助手,全程用中文回答,只分析用户提供的项目代码,不生成通用原理。"}],"tabAutocompleteModel": {"title": "Local Qwen2 7B","provider": "openai","model": "qwen2:7b","apiBase": "http://localhost:11434/v1","apiKey": "ollama"}}

(3)保存配置文件,重启 IDEA ,配置生效 ;

(4)启动本地模型服务:

打开CMD/终端,执行命令:ollama run qwen2:7b

✅ 成功:显示 >>> 提示符,保持窗口打开

🟢 阶段4:离线功能验证(确保万无一失)

(1)彻底断开网络(拔网线/关闭WiFi) , 确保电脑完全断网 ;

(2)在 Continue 聊天框输入测试指令:@Repo 用中文帮我分析这个项目的登录功能,告诉我核心代码位置和调用链

(3)等待模型回答:

✅ 成功:模型正常读取项目代码,用中文精准定位功能、解释逻辑 ;

❌ 失败:检查 Ollama 服务是否启动、配置文件是否正确。

3、日常使用命令速查(内网环境)

1. 启动/停止模型服务

bash 复制代码
# 启动 Qwen2 模型(保持窗口打开)
ollama run qwen2:7b

# 启动 DeepSeek 模型
ollama run deepseek-coder:6.7b

# 查看已安装模型
ollama list

# 停止模型服务(Windows 直接关闭CMD窗口即可)

2、项目级中文提问模板(直接复制用)

bash 复制代码
# 功能定位模板
@Repo 用中文详细说明这个项目中【XX功能】的实现逻辑、入口文件、涉及的类和方法、完整调用链,只讲我项目里的代码,不要通用原理。

# 代码分析模板
@Repo 帮我分析这个项目中【XX模块】的代码结构,用中文说明每个类的作用、方法之间的调用关系。

# 问题排查模板
@Repo 用中文帮我排查这个项目中【XX报错】的原因,定位相关代码并给出修复方案。

二、大模型简单对比(程序员视角)

  1. deepseek-coder:6.7b
    专门为代码训练,天生懂编程
    写函数、补全逻辑、查 bug、解释代码、生成注释都很顺
    支持多语言:Java、Python、Go、JS、C/C++、SQL 都不错
    体量 ~4GB,本地跑压力小
    缺点:通用聊天、写文案不如通用大模型
  2. qwen2:7b
    阿里通用大模型,综合能力强
    代码能写,但不是专精代码,复杂逻辑偶尔跑偏
    适合:既要写代码,又要写文档、总结、翻译
    大小 ~4.5GB,比 deepseek-coder 稍大

三、实际应用(方案 B: DeepSeek-Coder:6.7b + Ollama + Continue)

1、外网必须下载的 3 样

(1)Ollama 安装包

  • 下载地址:https://ollama.com/download
  • 文件名类似:OllamaSetup.exe
  • 保存好,内网直接双击安装

    点击后会下载一个 .exe 安装包(比如 OllamaSetup.exe),后续拷到内网笔记本上,双击安装,就能在离线环境用 Ollama 了。

(2)Continue IDEA 插件 ZIP

(3)下载 DeepSeek-Coder 模型(关键)

  • 在外网电脑打开 CMD,执行(需要外网已安装ollama):
bash 复制代码
ollama pull deepseek-coder:6.7b
  • 等待显示 success 即可。

①双击安装OllamaSetup.exe(外网):

②打开 CMD,执行(外网):

bash 复制代码
ollama pull deepseek-coder:6.7b

等它下载完 → 出现 success

上一步下载的ollama里如果你提问它必须依据某个大模型才能回答,目前没有一个大模型列表里的都是需要联网下载的,我这里选择下载大模型 deepseek-coder:6.7b。

③然后把整个文件夹复制走:

bash 复制代码
C:\Users\你的用户名\.ollama

2、内网一步一命令安装配置(纯离线)

阶段 1:安装 Ollama

(1)双击 OllamaSetup.exe 安装

(2)打开新 CMD,输入:

bash 复制代码
ollama --version

出现版本号 = 成功

(3)把从外网拷来的 .ollama 文件夹,覆盖到内网电脑:

bash 复制代码
C:\Users\内网用户名\.ollama

(4)查看模型是否存在:

bash 复制代码
ollama list

可以发现,ollama基于大模型deepseek-coder:6.7b可以使用了:

阶段 2:安装 Continue 插件(Idea里)

  • IDEA → File → Settings → Plugins
  • 点右上角齿轮 → Install Plugin from Disk...
  • 选择你下载的 Continue-xxx.zip
  • 重启 IDEA

双击导入continue插件;

阶段 3:配置 Continue(核心)

方法1:

打开 Continue 设置 → Open Settings把下面这段 完整复制粘贴 替换原有内容:

bash 复制代码
{
  "models": [
    {
      "title": "DeepSeek-Coder 6.7B (离线)",
      "provider": "openai",
      "model": "deepseek-coder:6.7b",
      "apiBase": "http://localhost:11434/v1",
      "apiKey": "ollama",
      "contextWindow": 16384,
      "systemMessage": "你是专业Java后端开发助手,只分析项目代码,全程用中文回答,简洁准确,不废话。"
    }
  ]
}

保存,重启 IDEA。

方法 2:手动打开文件(100% 成功,备用)

如果点击齿轮没反应,直接手动找到文件:

按 Win+R 打开「运行」,输入:%USERPROFILE%\.continue

回车后会直接跳转到 Continue 的配置文件夹

用 IDEA / 记事本打开里面的 config.json,替换成上面的配置,保存即可。

如果你只有 config.yaml(如图所示):

删除旧的 config.yaml,新建一个文件,命名为 config.json

把下面这段完整复制进去,保存:

yaml 复制代码
{
  "name": "Local Assistant",
  "version": "1.0.0",
  "schema": "v1",
  "models": [
    {
      "title": "DeepSeek Coder 6.7B (Ollama)",
      "model": "deepseek-coder:6.7b",
      "apiBase": "http://localhost:11434",
      "provider": "ollama",
      "options": {
        "temperature": 0.7,
        "num_ctx": 4096
      }
    }
  ],
  "tabAutocompleteModel": [
    {
      "title": "DeepSeek Coder 6.7B (Ollama)",
      "model": "deepseek-coder:6.7b",
      "apiBase": "http://localhost:11434",
      "provider": "ollama",
      "options": {
        "temperature": 0.7,
        "num_ctx": 4096
      }
    }
  ],
  "contextProviders": [
    {"name": "codebase"}
  ]
}

注意:乱码问题

解决方法;

1、打开 IDEA → File → Settings → Editor → File Encodings

把所有编码都改成 UTF-8:

2、上面勾选后还是乱码的话,

找到 IDEA 的安装目录,进入 bin 文件夹

用记事本 / Notepad++ 打开 idea64.exe.vmoptions(64 位系统)

在文件最末尾,添加这 3 行配置:

阶段 4:启动模型(不用也可以)

打开 CMD,运行:

bash 复制代码
ollama run deepseek-coder:6.7b

出现 >>> 就可以用了,窗口不要关。

阶段 5:离线使用(中文提问,不用也可以)

在 Continue 里直接发:

bash 复制代码
@Repo 帮我找这个项目里登录功能在哪里实现,调用链是什么
bash 复制代码
@Repo 这个接口的业务逻辑在哪个类哪个方法

全部离线、中文、不联网。

相关推荐
wb1892 小时前
NoSQL数据库Redis集群重习
数据库·redis·笔记·云计算·nosql
宵时待雨2 小时前
优选算法专题1:双指针
数据结构·c++·笔记·算法·leetcode
Stella Blog2 小时前
狂神Java基础学习笔记Day01
java·笔记·学习
tq10862 小时前
时间、决断与主体性:从“存在决定自我”到对“存在即本质”的批判
笔记
老虎06273 小时前
LeetCode热题100 刷题笔记(第五天)双指针法 「 三数之和 」
笔记·算法·leetcode
bobasyu4 小时前
Claude Code 源码笔记 -- State状态流转
笔记
Hammer_Hans4 小时前
DFT笔记38
笔记
CheerWWW4 小时前
C++学习笔记——函数指针、Lambda表达式、谨慎使用using namespace std、命名空间
c++·笔记·学习
独小乐4 小时前
013.定时器之系统Tick实现|千篇笔记实现嵌入式全栈/裸机篇
linux·笔记·单片机·嵌入式硬件·arm