ollama部署到本地电脑以及常用命令

在大模型私有化部署需求日益增长的今天,DeepSeek-R1 凭借其出色的推理能力和多场景适配性,成为很多开发者的首选。而 Ollama 作为轻量化大模型管理工具,能极大简化部署流程。本文将从 Ollama 下载安装开始,一步步教你完成 DeepSeek-R1 的本地部署,并通过 Web UI 实现直观交互,全程附带避坑指南,零基础也能轻松上手。

一、前期准备:了解核心工具与硬件要求

在开始部署前,先明确两个核心要素:工具定位与硬件适配,避免因配置不足导致部署失败。

1. 核心工具说明

  • Ollama:一款开源的大模型管理工具,支持一键下载、运行、管理各类主流大模型(如 Llama 3、DeepSeek、Qwen 等),自动处理依赖环境,无需手动配置 CUDA 等复杂环境。
  • DeepSeek-R1:深度求索推出的新一代开源大模型,在代码生成、逻辑推理、多轮对话等场景表现优异,提供 1.5B~671B 多种参数版本,可根据硬件选择适配型号。

2. 硬件要求(重点!)

不同参数的 DeepSeek-R1 对显卡显存要求差异较大,建议根据自身设备选择,避免 "下载完跑不动" 的问题。

模型版本 最低显卡要求 适用场景
DeepSeek-R1-1.5B NVIDIA RTX 3060 12GB 及以上 轻量化测试、简单对话
DeepSeek-R1-7B/8B NVIDIA RTX 3060 12GB 及以上 日常推理、代码辅助
DeepSeek-R1-14B NVIDIA RTX 3060 12GB 及以上 复杂任务、专业领域问答
DeepSeek-R1-32B NVIDIA RTX 4090 24GB 及以上 企业级应用、高精度推理
DeepSeek-R1-70B NVIDIA RTX 4090 24GB×2 及以上 大规模部署、深度研究
DeepSeek-R1-671B NVIDIA A100 80GB×16 及以上 工业级场景、超大规模任务

注:若使用 AMD 显卡或无独立显卡,可尝试 CPU 运行,但 1.5B 版本可能仍存在卡顿,建议优先选择 NVIDIA 显卡并安装最新显卡驱动。

二、第一步:下载并安装 Ollama(避坑指南)

Ollama 官方提供 Windows、macOS、Linux 版本,本文以Windows 系统为例,重点解决 "默认装 C 盘""下载慢" 等常见问题。

1. 下载 Ollama 安装包

访问 Ollama 官网:ollama.com/,点击右上角 "Download" 按钮,选择 Windows 版本(安装包最终会跳转至 GitHub 下载,若速度过慢可尝试切换网络或使用加速工具)。

2. 安装 Ollama(推荐命令安装,避免 C 盘占用)

Ollama 提供两种安装方式,强烈推荐 "命令安装" ------ 可自定义安装目录,避免默认装 C 盘导致空间不足。

方式 1:命令安装(推荐)

  1. 找到下载的OllamaSetup.exe文件(假设存放在D:\Temp目录);
  2. 管理员身份 打开 CMD(按下Win+R,输入cmd,右键 "以管理员身份运行");
  3. 在 CMD 中输入以下命令,定位到安装包目录:
    cd /d D:\Temp
  4. 执行安装命令(DIR后填写自定义安装目录,如D:\Net_Program\Net_Ollama):
    OllamaSetup.exe /DIR="D:\Net_Program\Net_Ollama"
  5. 弹出安装窗口后,点击 "Install",等待安装完成。

方式 2:双击安装(不推荐)

直接双击OllamaSetup.exe,默认安装到C:\Users[你的用户名]\AppData\Local\Programs\Ollama,无法修改目录,仅适合 C 盘空间充足的用户。

3. 安装后关键操作:退出 Ollama 临时服务

安装完成后,Ollama 会自动启动(任务栏右下角会出现 Ollama 图标),先右键图标选择 "Quit" 退出------ 后续配置环境变量后再重启,避免配置不生效。

4. 若已装 C 盘:迁移安装目录(补救方案)

如果不小心用了双击安装,可按以下步骤迁移到其他盘:

  1. 退出 Ollama 服务(任务栏右键退出);

  2. C:\Users[你的用户名]\AppData\Local\Programs\Ollama文件夹完整剪切 到目标目录(如D:\Net_Program\Net_Ollama);

  1. 配置环境变量:

    • 按下Win+R,输入sysdm.cpl,打开 "系统属性"→"高级"→"环境变量";
    • 在 "用户变量" 中找到Path,双击编辑,将原来的 Ollama 路径改为迁移后的路径(如D:\Net_Program\Net_Ollama);
    • 点击 "确定" 保存。

三、第二步:验证 Ollama 安装是否成功

配置完成后,通过简单命令验证 Ollama 是否正常工作:

  1. 打开 CMD(无需管理员身份);
  2. 输入以下命令查看版本:
    ollama -v
    若输出类似ollama version 0.1.30的信息,说明安装成功;
  3. 输入ollama -h可查看所有支持的命令,后续会常用到。

四、第三步:修改大模型存储位置(避免 C 盘爆仓)

Ollama 默认将大模型存储在C:\Users[你的用户名].ollama\models,若 C 盘空间不足,需提前修改存储路径:

  1. 打开 "环境变量"(步骤同上);

  2. 在 "用户变量" 中点击 "新建",输入:

    • 变量名:OLLAMA_MODELS
    • 变量值:D:\Net_Program\Net_Ollama\Models(自定义的模型存储目录,需提前创建文件夹);
  3. 点击 "确定" 保存,务必重启 CMD,确保环境变量生效。

五、第四步:下载并运行 DeepSeek-R1 模型

一切准备就绪后,即可通过 Ollama 一键下载 DeepSeek-R1,操作极其简单。

1. 选择模型版本

  1. 访问 Ollama 模型库:ollama.com/models,搜索 "deepseek-r1";
  2. 点击进入模型页面,下拉框中选择所需版本(如 1.5B、7B 等),复制对应的运行命令(如ollama run deepseek-r1:1.5b)。

2. 下载并启动模型

  1. 打开新的 CMD 窗口(确保环境变量生效);
  2. 粘贴刚才复制的命令,回车执行:
    ollama run deepseek-r1:1.5b
  3. 首次运行会自动下载模型,等待下载完成(若速度过慢,可按Ctrl+C中断,重新执行命令重试,通常会恢复速度);
  4. 当 CMD 显示>>> 时,说明模型已启动成功,可直接输入问题进行对话(如输入 "你好",模型会立即回复)。

3. 常用模型管理命令

后续操作中可能需要管理模型,以下是核心命令:

命令 说明 示例
ollama list 查看已安装的所有模型 -
ollama run 模型名 启动指定模型 ollama run deepseek-r1:1.5b
ollama stop 模型名 停止正在运行的模型 ollama stop deepseek-r1:1.5b
ollama rm 模型名 删除已安装的模型 ollama rm deepseek-r1:1.5b
ollama show 模型名 查看模型详细信息(大小、参数等) ollama show deepseek-r1:1.5b
ollama ps 查看正在运行的模型进程 -

退出模型对话:在>>> 后输入/bye,即可退出当前模型。

六、第五步:配置 Web UI,实现可视化交互

虽然 CMD 可以对话,但 Web UI 更直观易用。本文推荐两种主流方案:Chrome 插件(轻量化)和 Chatbox(功能全面)。

方案 1:Chrome 插件 ------Page Assist(简单快捷,需使用VPN安装谷歌插件)

适合快速上手,无需复杂配置,仅需 Chrome 浏览器即可。

  1. 打开 Chrome 应用商店,搜索 "Page Assist";
  2. 点击 "添加至 Chrome",安装完成后将插件固定到浏览器工具栏(这里是因为我已经安装过了);
  1. 启动 Ollama 服务(在开始菜单搜索 "Ollama",点击启动);
  2. 点击 Page Assist 插件,首次打开会提示 "Unable to connect to Ollama"------ 确保 Ollama 已启动,刷新插件即可;
  3. 配置中文:点击插件右上角 "Settings",将 "Language" 改为 "简体中文";
  1. 选择模型:在插件首页的下拉框中选择自己安装的模型name,即可开始对话。

方案 2:Chatbox(功能强大,支持多模型)

Chatbox 是一款开源的 AI 对话客户端,支持 Ollama、OpenAI 等多种接口,推荐追求功能完整性的用户。

  1. 下载 Chatbox:访问Chatbox 官网,下载 Windows 版本并安装;
  1. 配置 Ollama 环境变量(允许 Chatbox 访问):

    • 打开 "环境变量",新建两个用户变量:

      1. 变量名:OLLAMA_HOST,变量值:0.0.0.0(允许任何 IP 访问 Ollama 服务);
      2. 变量名:OLLAMA_ORIGINS,变量值:*(允许所有来源请求);
    • 重启 Ollama 服务,确保配置生效;

  1. Chatbox设置中文:

    • 打开 Chatbox,点击左下角 "设置";
    • 选择 "常规设置" ,点击"Language",选择简体中文;
  1. 配置 Chatbox:

    • 打开 Chatbox,点击左下角 "设置";
    • 选择 "模型提供方" 为 "Ollama";
    • "模型" 点击获取,勾选自己安装的模型;

5. 开始对话:返回 Chatbox 主界面,选择模型,然后方可提问。

七、常见问题与避坑指南

  1. Ollama 启动失败?
    检查是否以管理员身份安装,或尝试重启电脑;若提示 "端口被占用",可通过netstat -ano | findstr 11434(Ollama 默认端口)查看占用进程,结束后重启 Ollama。
  2. 模型下载速度慢?
    尝试切换手机热点、使用加速工具,或多次中断重试(Ctrl+C后重新执行ollama run命令)。
  3. Web UI 无法连接 Ollama?
    确认 Ollama 已启动,且OLLAMA_HOSTOLLAMA_ORIGINS环境变量配置正确;若使用 Chatbox 网页版(web.chatboxai.app/)连接失败,建议下载桌面端程序。
  4. 运行模型时卡顿 / 闪退?
    检查显卡显存是否满足要求,若显存不足,可切换更小参数的模型(如 1.5B),或关闭其他占用显存的程序(如游戏、视频剪辑软件)。

总结

通过 Ollama 部署 DeepSeek-R1 的流程可概括为:安装 Ollama(自定义目录)→ 配置模型存储路径 → 下载模型 → 配置 Web UI。整个过程无需复杂的环境配置,即使是非专业开发者也能在 30 分钟内完成。后续可根据需求尝试 DeepSeek-R1 的代码生成、文档总结等功能,或部署其他开源模型(如 Llama 3、Qwen-7B)。

如果在部署过程中遇到其他问题,可访问 Ollama 官方文档(ollama.com/docs)或 DeepSeek GitHub 仓库(github.com/deepseek-ai...)查找解决方案。

相关推荐
AgeClub3 小时前
银发市场是第一站,家电巨头押注机器人做“智能家居入口”
人工智能·microsoft
耐达讯通信技术3 小时前
惊爆!耐达讯自动化RS485转Profinet,电机连接的“逆天神器”?
运维·网络·人工智能·科技·网络协议·自动化
~央千澈~3 小时前
AI助力软件UI概念设计:卓伊凡收到的客户设计图引发的思考
人工智能
悟乙己3 小时前
使用 BayesFlow 神经网络简化贝叶斯推断的案例分享(二)
人工智能·深度学习·神经网络
THMAIL4 小时前
机器学习从入门到精通 - Python环境搭建与Jupyter魔法:机器学习起航必备
linux·人工智能·python·算法·机器学习·docker·逻辑回归
Joy T4 小时前
机器学习如何精准预测高值
人工智能·机器学习
大熊背4 小时前
白平衡分块统计数据为什么需要向下采样?
人工智能·计算机视觉·白平衡
Yh8702034 小时前
2025年工科生转型必考含金量最高证书
人工智能
YXWik64 小时前
java 使用 spring AI 实战 RAG (Chroma 向量数据库+Advisor)
java·人工智能·spring