Deepseek本地部署

一,Deepseek本地部署方式

1,利用Ollama来部署

2,利用Cherry Studio来部署

二,通过Ollama本地部署Deepseek

1,什么是Ollama

Ollama是一个开源的 LLM(大型语言模型)服务工具,用于简化在本地运行大语言模型,降低使用大语言模型的门槛,使得大模型的开发者、研究人员和爱好者能够在本地环境快速实验、管理和部署最新大语言模型,包括如Llama 3、Phi 3、Mistral、Gemma等开源的大型语言模型。

2,下载Ollama

下载地址https://ollama.com/

下载后直接安装即可,安装完后通过以下命令查看是否安装成功

java 复制代码
//通过win+R 输入cmd,打开黑窗口后输入下面命令,可以查看安装的ollama版本号
ollama -v

3,在ollama上安装deepseek

在ollama官网上可以直接下载安装deepseek,根据自己的显卡性能选择不同大小的模型


不建议安装1.5版本,有点弱智,各个版本要求如下

复制deepseek安装命令到黑窗口,等待安装完成就可以对话了

java 复制代码
//ollama上安装deepseek的命令
ollama run deepseek-r1:7b
//暂停deepseek安装命令
Ctrl+C
相关推荐
FserSuN2 分钟前
2026年AI工程师指南
人工智能
是枚小菜鸡儿吖3 分钟前
CANN 的安全设计之道:AI 模型保护与隐私计算
人工智能
leo03084 分钟前
科研领域主流机械臂排名
人工智能·机器人·机械臂·具身智能
人工智能AI技术23 分钟前
GitHub Copilot免费替代方案:大学生如何用CodeGeeX+通义灵码搭建AI编程环境
人工智能
Chunyyyen24 分钟前
【第三十四周】视觉RAG01
人工智能·chatgpt
是枚小菜鸡儿吖26 分钟前
CANN 算子开发黑科技:AI 自动生成高性能 Kernel 代码
人工智能·科技
hqyjzsb32 分钟前
盲目用AI提效?当心陷入“工具奴”陷阱,效率不增反降
人工智能·学习·职场和发展·创业创新·学习方法·业界资讯·远程工作
Eloudy39 分钟前
用 Python 直写 CUDA Kernel的技术,CuTile、TileLang、Triton 与 PyTorch 的深度融合实践
人工智能·pytorch
神的泪水40 分钟前
CANN 实战全景篇:从零构建 LLM 推理引擎(基于 CANN 原生栈)
人工智能