在 Mac mini M2 上本地部署 DeepSeek-R1:14B:使用 Ollama 和 Chatbox 的完整指南

随着人工智能技术的飞速发展,本地部署大型语言模型(LLM)已成为许多技术爱好者的热门选择。本地部署不仅能够保护隐私,还能提供更灵活的使用体验。本文将详细介绍如何在 Mac mini M2(24GB 内存)上部署 DeepSeek-R1:14B 模型,并通过 Ollama 和 Chatbox 进行交互。同时,我们也会对比使用 Open-WebUI 的体验,帮助你选择最适合自己的工具。

一、环境准备

硬件要求

  • 设备:Mac mini M2,24GB 内存。
  • 存储空间:至少需要 50GB 的可用空间,建议预留更多空间以避免磁盘空间不足。

软件要求

  • 操作系统:macOS Monterey 或更高版本。
  • Ollama:用于运行和管理 DeepSeek 模型的本地引擎。
  • Chatbox:轻量级的图形界面工具,用于与模型进行交互。
  • Docker(可选):如果需要使用 Open-WebUI,需要安装 Docker。

二、安装Ollama

Ollama 是一个轻量级的本地 AI 模型管理工具,支持多种语言模型的运行和管理。以下是安装步骤:

1、安装 Ollama

访问 Ollama 官方网站https://ollama.com/,下载适用于 macOS 的安装包。下载完成后,点击安装包使行安装

2、启动 Ollama 服务

安装完成后,运行以下命令启动 Ollama 服务:

复制代码
ollama serve

验证 Ollama 是否运行正常

在浏览器中访问 http://127.0.0.1:11434,如果看到 Ollama 的欢迎页面,说明服务已成功启动。

三、下载并运行DeepSeek-R1:14B 模型

DeepSeek-R1:14B 是一个功能强大的语言模型,适用于多种自然语言处理任务。以下是下载和运行模型的步骤:
https://ollama.com/library/deepseek-r1:14b

1、下载模型

在终端中运行以下命令下载 DeepSeek-R1:14B 模型:

复制代码
ollama pull deepseek-r1:14b

2、验证模型是否下载成功

下载完成后,运行以下命令检查模型是否正确安装:

复制代码
ollama list

如果看到 deepseek-r1:14b 出现在已安装模型列表中,说明模型已成功下载。

3、运行模型

使用以下命令启动模型并进入交互模式:

复制代码
ollama run deepseek-r1:14b

效果如下

四、安装并配置 chatbox

Chatbox 是一个轻量级的图形界面工具,支持与 Ollama 管理的模型进行交互。以下是安装和配置步骤:

安装 Chatbox

访问 Chatbox 官方网站,下载适用于 macOS 的安装包并安装。https://chatboxai.app/zh#download

配置 Chatbox

  • 打开 Chatbox 应用程序,进入设置页面:
  • API 地址:设置为 http://127.0.0.1:11434。(模型提供方,选中OLLAMA API后,域名会自动填写,可选的模型也会自动列出来)
  • 模型选择:选择 deepseek-r1:14b。

开始使用

配置完成后,你可以通过 Chatbox 的界面输入问题,并与 DeepSeek-R1:14B 模型进行交互。

五、体验与对比:Chatbox vs. Open-WebUI

在本地部署过程中,我们还尝试了 Open-WebUI,一个基于 Web 的交互界面。以下是两者的主要对比:

特性 Chatbox Open-WebUI
优点 - 轻量级 :安装和配置简单,占用资源少。 - 易用性高 :图形界面直观,适合新手快速上手。 - 响应速度快:本地运行,无需额外的网络延迟。 - 功能丰富 :支持多种模型,提供更复杂的交互功能。 - 灵活性高:可以通过浏览器访问,支持多设备使用。
缺点 - 功能有限:主要专注于与模型的交互,扩展功能较少。 - 配置复杂 :需要安装 Docker,并进行额外的配置。 - 资源占用高:运行时可能需要更多内存和存储空间。
适用场景 - 适合快速部署和简单使用,对资源占用敏感的用户。 - 适合需要复杂交互功能、多设备访问的用户。

PS:安装与启动open-webui的命令

复制代码
docker run -d -p 3110:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

通过http://localhost:3110/ ,访问open-webui

第一次访问要注册用户

六、总结

通过 Ollama 和 Chatbox,你可以在 Mac mini M2 上轻松部署并使用 DeepSeek-R1:14B 模型。整个过程简单高效,且不需要复杂的配置。无论你是技术新手还是有一定经验的开发者,都可以快速上手并享受本地 AI 模型带来的便利。

希望本文能帮助你顺利完成部署,开启智能对话的新体验!如果你在部署过程中遇到任何问题,欢迎随时留言交流。

相关推荐
开开心心就好7 小时前
电子报纸离线保存:一键下载多报PDF工具
网络·笔记·macos·pdf·word·音视频·phpstorm
淡忘_cx15 小时前
Dify 插件开发与打包教程 (Mac)
macos
2501_9159184115 小时前
App 上架苹果商店全流程详解 从开发者账号申请到开心上架(Appuploader)跨平台免 Mac 上传实战指南
macos·ios·小程序·uni-app·objective-c·cocoa·iphone
win4r17 小时前
🚀超越DeepSeek-OCR!OCR领域的革命性突破:Chandra OCR本地部署+真实测评!手写体、繁体字、数学公式、重叠文字全部完美识别,告别漏字漏页
llm·aigc·deepseek
亚林瓜子21 小时前
SpringBoot中使用tess4j进行OCR(在macos上面开发)
java·spring boot·macos·ocr·lstm·tess4j
AirDroid_cn21 小时前
在 iOS 18 的照片应用,如何批量隐藏截屏?
macos·objective-c·cocoa
00后程序员张1 天前
iOS 文件管理与导出实战,多工具协同打造高效数据访问与调试体系
android·macos·ios·小程序·uni-app·cocoa·iphone
javaGHui1 天前
macOS 上获取调试版
macos
2501_915918411 天前
iOS描述文件功能解析
android·macos·ios·小程序·uni-app·cocoa·iphone
shayudiandian2 天前
Node.js环境变量配置
deepseek