【清晰教程】本地部署DeepSeek-r1模型

【清晰教程】通过Docker为本地DeepSeek-r1部署WebUI界面-CSDN博客

目录

Ollama

安装Ollama

DeepSeek-r1模型

安装DeepSeek-r1模型


Ollama

Ollama 是一个开源工具,专注于简化大型语言模型(LLMs)的本地部署和管理。它允许用户在本地计算机上运行各种 AI 大模型(如 Llama、DeepSeek、Mistral 等),而无需依赖云服务。

Ollama 支持多种操作系统,包括 macOS、Linux 和 Windows。安装方式因系统而异,例如在 macOS 上可以通过 Homebrew 安装。基于Ollama,用户可以通过命令行工具或 Web 界面调用模型。能够实现本地部署、模型管理、API支持等功能。

  • 本地部署:支持在本地计算机上运行大型语言模型,确保数据隐私和低延迟。

  • 模型管理:轻松下载、更新和删除模型。

  • 跨平台支持:兼容 macOS、Linux 和 Windows。

  • API 支持:提供 RESTful API,方便与其他应用程序集成。

  • 社区驱动:开源项目,拥有活跃的社区支持。

安装Ollama

访问Ollama官网的下载页面

Download Ollama on Windowshttps://ollama.com/download

选择适配操作系统的客户端,单击下载
如下载速度偏慢可考虑科学上网

​下载完成后,双击打开OllamaSetup

点击Install安装

Ollama默认安装在C盘,需要2G以上存储空间

安装完成后,通过命令行检查Ollama的安装情况

​也可通过Win+R,在运行框中键入cmd进入命令行

在命令行中键入ollama,显示以下信息即为安装成功

复制代码
ollama

安装完成后,Ollama 会在后台自动运行,默认端口是 11434

DeepSeek-r1模型

访问Ollama官网的模型页面

Ollamahttps://ollama.com/search

选择所需模型,这里选用DeepSeek-r1

在DeepSeek-r1的详细页面包含各种量级的模型以及对应的模型下载命令:

这里作为演示,选用最小的1.5b-DeepSeek-r1

下载命令为

复制代码
ollama run deepseek-r1:1.5b

安装DeepSeek-r1模型

复制对应模型的下载命令

复制代码
ollama run deepseek-r1:1.5b

进入命令行

​也可通过Win+R,在运行框中键入cmd进入命令行

键入对应模型的下载命令

下载完成后即可直接使用模型进行交互

至此便已经完成DeepSeek-r1的本地部署。如需GUI界面,可通过Docker部署适配的WebUI。【清晰教程】通过Docker为本地DeepSeek-r1部署WebUI界面-CSDN博客

相关推荐
飞哥数智坊6 小时前
DeepSeek 节前突袭发布 V3.2-Exp:长文本推理成本直降75%!
人工智能·deepseek
武陵悭臾15 小时前
安卓应用开发学习:应用ViewPager2翻页视图实现页面水平切换
android·学习·viewpager2·deepseek·翻页视图
AganTee17 小时前
deepseek 电脑端怎么下载?网页版与本地部署教程
ai·deepseek
胡耀超2 天前
开源生态与技术民主化 - 从LLaMA到DeepSeek的开源革命(LLaMA、DeepSeek-V3、Mistral 7B)
人工智能·python·神经网络·开源·大模型·llama·deepseek
Lethehong3 天前
DeepSeek-V3.1-Terminus:蓝耘API+CherryStudio实测国产最新开源模型,推理能力竟让我后背发凉
人工智能·大模型·deepseek·蓝耘元生代·蓝耘maas·ai ping
大模型真好玩3 天前
深入浅出LangGraph AI Agent智能体开发教程(八)—LangGraph底层API实现ReACT智能体
人工智能·agent·deepseek
canonical_entropy3 天前
一份关于“可逆计算”的认知解码:从技术细节到哲学思辨的完整指南
后端·低代码·deepseek
用户51681661458413 天前
使用[DeepSeek]快速定位nginx前端部署后报错:500 Internal Server Error nginx/1.29.1
nginx·deepseek
汉密士202401015 天前
DeepSeek对数学工具的分类(2025.1.13)
人工智能·deepseek·数学工具·数学结构