目录

本地部署 DeepSeek R1 教程 - 超简单 - 适用于mac, windows, linux

步骤 1:安装 Ollama

Ollama 是一个本地 AI 运行工具,支持在终端中直接运行 AI 模型。

  1. 下载 Ollama

    访问 Ollama 的下载页面:https://ollama.com/download,选择适合你操作系统的版本(Windows、macOS 或 Linux)。

  2. 安装 Ollama

    下载完成后,按照安装向导完成安装。

  3. 验证安装

    安装完成后,打开终端(或命令提示符),运行以下命令验证 Ollama 是否安装成功:

    bash 复制代码
    ollama --version

    如果显示版本号,说明安装成功。


步骤 2:下载 DeepSeek R1 模型

Ollama 支持直接从终端下载和运行 DeepSeek R1 模型。

  1. 下载模型
    在终端中运行以下命令:
bash 复制代码
ollama run deepseek-r1:1.5b

适合本地的小参数模型

  1. 等待模型下载完成

  2. 验证模型运行

    下载完成后,Ollama 会自动启动模型。你可以在终端中直接与 DeepSeek R1 进行对话。例如:

    bash 复制代码
    >>> hello

    如果模型返回响应,说明模型已成功运行。


步骤 3:安装 Chatbox

Chatbox 是一个 GUI 工具,可以提供更好的交互体验。

  1. 下载 Chatbox

    访问 Chatbox 的下载页面:https://chatboxai.app/en#,选择适合你操作系统的版本。

  2. 安装 Chatbox

    下载完成后,按照安装向导完成安装。

  3. 配置 Chatbox

    4.

    打开 Chatbox,进行以下配置:

    • 在"配置 API 模型"选项中选择 Ollama API
    • 设置 API 主机为:http://127.0.0.1:11434(这是 Ollama 的默认 API 地址)。
    • 选择 DeepSeek R1 作为默认模型。
    • 保存设置。
  4. 启动 Chatbox

    配置完成后,点击"启动"按钮,Chatbox 会连接到本地的 Ollama 服务。你可以通过 Chatbox 的界面与 DeepSeek R1 进行对话。


到此已经可以和deepseek对话了😄🎉🎉🎉

本文是转载文章,点击查看原文
如有侵权,请联系 xyy@jishuzhan.net 删除
相关推荐
RamendeusStudio1 分钟前
AI教我做事之RAG开发-21 RAGFlow深度研究
人工智能·ai·aigc·stablediffusion·controlnet·rag·ragflow
我是水怪的哥1 小时前
MacOS在matlab中使用dir时,总是出现“._”文件的解决方法
经验分享·macos·matlab
程序员鱼皮3 小时前
几个技巧,教你去除文章的 AI 味!
ai·互联网
绿算技术4 小时前
技术点提升效率详解
科技·缓存·ai·fpga开发
丁总学Java4 小时前
在 macOS Sequoia 15.2 中启用「三指拖动」并实现快速复制的完整指南 ✨
macos
打工人你好4 小时前
Mac下查看dylib库的版本信息
macos
Persus4 小时前
MacOS 上使用终端彻底格式化 U 盘
macos
一只会铲史的猫4 小时前
关于普通程序员该如何参与AI学习的三个建议以及自己的实践
ai·大语言模型·agent
码观天工5 小时前
AI与.NET技术实操系列(八):使用Catalyst进行自然语言处理
ai·.net·自然语言·ml.net·catalyst
Macdo_cn5 小时前
Folder Icons for Mac v2.0.3 文件/文件夹图标美化 支持M、Intel芯片
macos