本地部署 DeepSeek R1 教程 - 超简单 - 适用于mac, windows, linux

步骤 1:安装 Ollama

Ollama 是一个本地 AI 运行工具,支持在终端中直接运行 AI 模型。

  1. 下载 Ollama

    访问 Ollama 的下载页面:https://ollama.com/download,选择适合你操作系统的版本(Windows、macOS 或 Linux)。

  2. 安装 Ollama

    下载完成后,按照安装向导完成安装。

  3. 验证安装

    安装完成后,打开终端(或命令提示符),运行以下命令验证 Ollama 是否安装成功:

    bash 复制代码
    ollama --version

    如果显示版本号,说明安装成功。


步骤 2:下载 DeepSeek R1 模型

Ollama 支持直接从终端下载和运行 DeepSeek R1 模型。

  1. 下载模型
    在终端中运行以下命令:
bash 复制代码
ollama run deepseek-r1:1.5b

适合本地的小参数模型

  1. 等待模型下载完成

  2. 验证模型运行

    下载完成后,Ollama 会自动启动模型。你可以在终端中直接与 DeepSeek R1 进行对话。例如:

    bash 复制代码
    >>> hello

    如果模型返回响应,说明模型已成功运行。


步骤 3:安装 Chatbox

Chatbox 是一个 GUI 工具,可以提供更好的交互体验。

  1. 下载 Chatbox

    访问 Chatbox 的下载页面:https://chatboxai.app/en#,选择适合你操作系统的版本。

  2. 安装 Chatbox

    下载完成后,按照安装向导完成安装。

  3. 配置 Chatbox

    4.

    打开 Chatbox,进行以下配置:

    • 在"配置 API 模型"选项中选择 Ollama API
    • 设置 API 主机为:http://127.0.0.1:11434(这是 Ollama 的默认 API 地址)。
    • 选择 DeepSeek R1 作为默认模型。
    • 保存设置。
  4. 启动 Chatbox

    配置完成后,点击"启动"按钮,Chatbox 会连接到本地的 Ollama 服务。你可以通过 Chatbox 的界面与 DeepSeek R1 进行对话。


到此已经可以和deepseek对话了😄🎉🎉🎉

相关推荐
清沫21 分钟前
Cursor Rules 开发实践指南
前端·ai编程·cursor
vlln33 分钟前
2025年与2030年AI及AI智能体 (Agent) 市场份额分析报告
人工智能·深度学习·神经网络·ai
江梦寻1 小时前
MacOS下Homebrew国内镜像加速指南(2025最新国内镜像加速)
开发语言·后端·python·macos·架构·策略模式
huan_19931 小时前
Spring AI中使用ChatMemory实现会话记忆功能
ai·spring ai·模型记忆·springai开发·chatmemory
*Lisen1 小时前
重新安装解决mac vscode点击不能跳转问题
ide·vscode·macos
远方16098 小时前
14-Oracle 23ai Vector Search 向量索引和混合索引-实操
数据库·ai·oracle
weixin_387545649 小时前
如何把 Mac Finder 用得更顺手?——高效文件管理定制指南
macos
何双新10 小时前
第23讲、Odoo18 邮件系统整体架构
ai·架构
阿部多瑞 ABU10 小时前
主流大语言模型安全性测试(三):阿拉伯语越狱提示词下的表现与分析
人工智能·安全·ai·语言模型·安全性测试
孔令飞12 小时前
Kubernetes 节点自动伸缩(Cluster Autoscaler)原理与实践
ai·云原生·容器·golang·kubernetes