本地部署 DeepSeek R1 教程 - 超简单 - 适用于mac, windows, linux

步骤 1:安装 Ollama

Ollama 是一个本地 AI 运行工具,支持在终端中直接运行 AI 模型。

  1. 下载 Ollama

    访问 Ollama 的下载页面:https://ollama.com/download,选择适合你操作系统的版本(Windows、macOS 或 Linux)。

  2. 安装 Ollama

    下载完成后,按照安装向导完成安装。

  3. 验证安装

    安装完成后,打开终端(或命令提示符),运行以下命令验证 Ollama 是否安装成功:

    bash 复制代码
    ollama --version

    如果显示版本号,说明安装成功。


步骤 2:下载 DeepSeek R1 模型

Ollama 支持直接从终端下载和运行 DeepSeek R1 模型。

  1. 下载模型
    在终端中运行以下命令:
bash 复制代码
ollama run deepseek-r1:1.5b

适合本地的小参数模型

  1. 等待模型下载完成

  2. 验证模型运行

    下载完成后,Ollama 会自动启动模型。你可以在终端中直接与 DeepSeek R1 进行对话。例如:

    bash 复制代码
    >>> hello

    如果模型返回响应,说明模型已成功运行。


步骤 3:安装 Chatbox

Chatbox 是一个 GUI 工具,可以提供更好的交互体验。

  1. 下载 Chatbox

    访问 Chatbox 的下载页面:https://chatboxai.app/en#,选择适合你操作系统的版本。

  2. 安装 Chatbox

    下载完成后,按照安装向导完成安装。

  3. 配置 Chatbox

    4.

    打开 Chatbox,进行以下配置:

    • 在"配置 API 模型"选项中选择 Ollama API
    • 设置 API 主机为:http://127.0.0.1:11434(这是 Ollama 的默认 API 地址)。
    • 选择 DeepSeek R1 作为默认模型。
    • 保存设置。
  4. 启动 Chatbox

    配置完成后,点击"启动"按钮,Chatbox 会连接到本地的 Ollama 服务。你可以通过 Chatbox 的界面与 DeepSeek R1 进行对话。


到此已经可以和deepseek对话了😄🎉🎉🎉

相关推荐
张彦峰ZYF8 小时前
从检索到生成:RAG 如何重构大模型的知识边界?
人工智能·ai·aigc
用户35218024547510 小时前
MCP极简入门:node+idea运行简单的MCP服务和MCP客户端
node.js·ai编程
每天开心11 小时前
一文教你掌握事件机制
前端·javascript·ai编程
难受啊马飞2.011 小时前
如何判断 AI 将优先自动化哪些任务?
运维·人工智能·ai·语言模型·程序员·大模型·大模型学习
每天开心13 小时前
深入理解 CSS 选择器:从基础到高级
css·html·ai编程
俞乾14 小时前
Context Engineering(上下文工程)是 AI Agent 成功的关键吗?
openai·ai编程
瓜子三百克14 小时前
CALayer的异步处理
macos·ios·cocoa
kingchen15 小时前
稳定的Claude Code渠道,白嫖100刀
ai编程
量子位15 小时前
“英伟达显卡就是一坨 ”!博主 6000 字檄文怒批:烧接口、缺单元、驱动变砖还威胁媒体
ai编程
运器12315 小时前
【一起来学AI大模型】算法核心:数组/哈希表/树/排序/动态规划(LeetCode精练)
开发语言·人工智能·python·算法·ai·散列表·ai编程