本地部署 DeepSeek R1 教程 - 超简单 - 适用于mac, windows, linux

步骤 1:安装 Ollama

Ollama 是一个本地 AI 运行工具,支持在终端中直接运行 AI 模型。

  1. 下载 Ollama

    访问 Ollama 的下载页面:https://ollama.com/download,选择适合你操作系统的版本(Windows、macOS 或 Linux)。

  2. 安装 Ollama

    下载完成后,按照安装向导完成安装。

  3. 验证安装

    安装完成后,打开终端(或命令提示符),运行以下命令验证 Ollama 是否安装成功:

    bash 复制代码
    ollama --version

    如果显示版本号,说明安装成功。


步骤 2:下载 DeepSeek R1 模型

Ollama 支持直接从终端下载和运行 DeepSeek R1 模型。

  1. 下载模型
    在终端中运行以下命令:
bash 复制代码
ollama run deepseek-r1:1.5b

适合本地的小参数模型

  1. 等待模型下载完成

  2. 验证模型运行

    下载完成后,Ollama 会自动启动模型。你可以在终端中直接与 DeepSeek R1 进行对话。例如:

    bash 复制代码
    >>> hello

    如果模型返回响应,说明模型已成功运行。


步骤 3:安装 Chatbox

Chatbox 是一个 GUI 工具,可以提供更好的交互体验。

  1. 下载 Chatbox

    访问 Chatbox 的下载页面:https://chatboxai.app/en#,选择适合你操作系统的版本。

  2. 安装 Chatbox

    下载完成后,按照安装向导完成安装。

  3. 配置 Chatbox

    4.

    打开 Chatbox,进行以下配置:

    • 在"配置 API 模型"选项中选择 Ollama API
    • 设置 API 主机为:http://127.0.0.1:11434(这是 Ollama 的默认 API 地址)。
    • 选择 DeepSeek R1 作为默认模型。
    • 保存设置。
  4. 启动 Chatbox

    配置完成后,点击"启动"按钮,Chatbox 会连接到本地的 Ollama 服务。你可以通过 Chatbox 的界面与 DeepSeek R1 进行对话。


到此已经可以和deepseek对话了😄🎉🎉🎉

相关推荐
常年游走在bug的边缘36 分钟前
基于spring boot 集成 deepseek 流式输出 的vue3使用指南
java·spring boot·后端·ai
```陪伴1 小时前
uniapp打包IOS私钥证书过期了,如何在非mac系统操作
macos·ios·uni-app
Captaincc1 小时前
使用 AI 工具高效开发应用的上下文边界法
ai编程
hongweihao1 小时前
这操作够骚不:用Cursor 替换 IntelliJ Idea 进行Java开发
aigc·ai编程·cursor
创实信息1 小时前
GitHub Copilot在产品/安全团队中的应用实践:处理Markdown、自动化报告与电子表格、使用CLI命令等
github·copilot·ai编程
ぃ灵彧が2 小时前
MCP协议在纳米材料领域的深度应用:从跨尺度协同到智能研发范式重构
人工智能·ai·科学计算·材料·mcp·纳米·纳米材料
AI袋鼠帝2 小时前
体验完字节送的迷你AI硬件,后劲太大了...
aigc·ai编程
XINVRY-FPGA2 小时前
XC7K410T‑2FFG900I 赛灵思XilinxFPGA Kintex‑7
嵌入式硬件·安全·阿里云·ai·fpga开发·云计算·fpga
Captaincc3 小时前
如何有效地使用Cursor AI IDE 的十二个关键方法
ai编程·cursor
万俟淋曦3 小时前
【论文速递】2025年04周 (Robotics/Embodied AI/LLM)
人工智能·ai·机器人·大模型·论文·具身智能·vla