Mac上本地部署DeepSeek并使用Ollama提供API与Chatbox交互

本指南将带你一步步完成 DeepSeek 本地模型的部署,同时结合 Ollama 提供 API 支持,并使用 Chatbox 作为 UI 界面,实现流畅的离线 AI 交互。

目标:简单易懂,让零基础用户也能顺利完成部署。


1. 安装 Ollama 并运行 DeepSeek

首先,从 Ollama 官方网站下载并安装 Ollama:

Ollama 现已支持 DeepSeek-R1 模型部署,进入官网后,你可以找到相关介绍:

点击 DeepSeek-R1 链接查看详情,目前 DeepSeek-R1 提供 1.5B、7B、8B、14B、32B、70B、671B 七种参数规模的模型。

由于我的设备性能有限,本次演示选择最小的 1.5B 版本:

选择建议:模型参数越大,效果越强,但对计算资源需求也更高,建议根据自身设备情况选择。

下载并安装 Ollama

在官网下载适用于自己操作系统的 Ollama:

本文演示使用 macOS 版,下载后得到 Ollama-darwin.zip,解压后运行安装:

按照提示,点击 Install 进行安装:

安装完成后,打开终端(Command + Space 搜索 terminal),执行以下命令下载并运行 DeepSeek 1.5B 模型:

sh 复制代码
ollama run deepseek-r1:1.5b

下载并加载模型后,即可开始交互:

sh 复制代码
>>> Hi! Who are you?
Hi! I'm DeepSeek-R1, an artificial intelligence assistant created by DeepSeek.

至此,你已成功运行本地 DeepSeek 模型!


2. 安装 Chatbox 并连接本地 DeepSeek

Chatbox 是一个便捷的 AI 聊天 UI,支持连接本地 Ollama API。

下载安装后,按提示将其拖入 Applications 目录:

配置 Chatbox 连接本地 DeepSeek

Chatbox 支持多种 API 连接方式,不要选择 DeepSeek API ,而是选择 OLLAMA API,这样才能正确识别我们在本地运行的 DeepSeek-R1 1.5B 模型。

配置完成后,即可在 Chatbox 里与本地 DeepSeek 流畅交流。


3. 无需联网,畅快对话

DeepSeek 本地部署的优势之一是可以在无网络状态下使用。例如,我正在撰写本文,可以让 AI 帮助生成多个吸引人的标题:

sh 复制代码
我正在写一篇文章,标题是"手把手教你部署 DeepSeek 本地模型",请帮我生成 10 个更吸引人的标题。

DeepSeek 迅速返回 10 个备选标题,并给出了思考过程,响应速度即使在老旧设备上也十分流畅。


结语

通过本教程,你已经成功部署 DeepSeek 本地模型,并结合 Ollama 和 Chatbox 实现了完整的离线 AI 交互。希望本指南能帮助你轻松上手,体验强大的 AI 聊天能力!

相关推荐
静西子12 分钟前
LLM大语言模型部署到本地(个人总结)
人工智能·语言模型·自然语言处理
cxr82836 分钟前
基于Claude Code的 规范驱动开发(SDD)指南
人工智能·hive·驱动开发·敏捷流程·智能体
Billy_Zuo39 分钟前
人工智能机器学习——决策树、异常检测、主成分分析(PCA)
人工智能·决策树·机器学习
小王爱学人工智能1 小时前
OpenCV的图像金字塔
人工智能·opencv·计算机视觉
北京地铁1号线1 小时前
Qwen-VL(阿里通义千问视觉语言模型)模型架构和损失函数介绍
人工智能·语言模型·自然语言处理
阿豪32 小时前
2025 年职场转行突围:除实习外,这些硬核证书让你的简历脱颖而出(纯经验分享)
大数据·人工智能·经验分享·科技·信息可视化·产品经理
阿杜杜不是阿木木2 小时前
开始 ComfyUI 的 AI 绘图之旅-Stable Diffusion图生图之局部重绘(Inpaint)和扩图(Outpaint)(三)
人工智能·ai·ai作画·aigc·图生图
阿杜杜不是阿木木2 小时前
开始 ComfyUI 的 AI 绘图之旅-Stable Diffusion图生图(二)
人工智能·ai·ai作画·aigc·图生图
九章云极AladdinEdu2 小时前
存算一体芯片生态评估:从三星PIM到知存科技WTM2101
人工智能·pytorch·科技·架构·开源·gpu算力