本地搭建DeepSeek R1模型 + 前端

本地搭建DeepSeek R1模型 + 前端

配置:

操作系统:windows11

CPU:i5 13600KF

GPU:英伟达4070 12GB

内存:16G DDR5

硬盘:1TB

模型安装

本文采用Ollama进行安装。Ollama安装比较简单。

官网:Ollama

安装Ollama,下载完后无脑安装即可。安装完成后执行 ollama -v 命令,出现版本则安装成功。

根据你自己电脑的配置选择对应的模型安装。

  • 低配置硬件适配:如果你的电脑硬件配置较为基础,CPU 是老旧的双核或四核处理器,运行内存仅有 8GB 及以下,显卡为集成显卡或者独立显卡的显存不足 2GB ,那么 DeepSeek-R1-Distill-Llama-1.5B 模型是最佳选择。它对硬件资源的需求极低,能够在这样的设备上稳定运行,轻松应对日常对话、简单文本生成等基础文本处理任务,满足你的日常使用需求。
  • 中配置硬件适配:若你的电脑配置处于中等水平,配备像英特尔酷睿 i5 系列或者 AMD 锐龙 5 系列这样性能不错的 CPU,内存达到 16GB,显卡显存为 4 - 6GB ,那么 DeepSeek-R1-Distill-Llama-7B 或 DeepSeek-R1-Distill-[Qwen]-7B 模型将是你的得力助手。这类模型在中等配置的电脑上能够充分发挥潜力,运行效率较高,能够轻松处理简单代码生成、文章润色等具有一定复杂度的任务,帮助你完成更多有挑战性的工作。
  • 高配置硬件适配:对于电脑硬件配置高端的用户,拥有英特尔酷睿 i7/i9 系列或 AMD 锐龙 7/9 系列这种高性能 CPU,内存达到 32GB 及以上,显卡搭载 NVIDIA GeForce RTX 30 系列、AMD Radeon RX 6000 系列等高性能独立显卡,显存高达 8GB 及以上,此时 DeepSeek-R1-Distill-Llama-32B 甚至更高版本的模型,才是充分发挥你电脑硬件实力的不二之选。它们能够承担复杂的自然语言处理任务,如专业领域的文本深度分析、复杂代码的编写与调试等,为你带来高效且优质的使用体验。

我这里选择的deepseek-r1 7b模型。

打开cmd小黑窗执行 ollama run deepseek-r1:7b,ollama就会自动下载模型并启动,模型越大下载时间越长,耐心等待。完成后就可以在命令行提问题了。

前端安装

命令行用起来不是很方便,而且无法解析markdown文档,所以需要安装一个前端界面。前端我使用的是CherryStudio。

官网:Cherry Studio 官方网站 - 全能的AI助手

安装可以参照我的另一篇:一款好用的模型大模型服务桌面客户端_cherystudio-CSDN博客

  • 安装配置完成后就可以选择模型进行问答了。注意:本地部署的模型不需要配置秘钥。

到此deepseekR1模型以及前端就在你本地启动起来了,使用本地更快而且不会遇到服务繁忙的情况。快去试试吧。

相关推荐
**梯度已爆炸**16 小时前
语言模型的评估指标整理
人工智能·语言模型·自然语言处理
计算机sci论文精选21 小时前
ACL 2024 大模型方向优秀论文:洞察NLP前沿关键突破
人工智能·深度学习·语言模型·多模态·acl·机器翻译模型
__風__21 小时前
从本地 Docker 部署的 Dify 中导出知识库内容(1.6版本亲测有效)
人工智能·python·mysql·语言模型
MUTA️1 天前
视觉语言模型在视觉任务上的研究综述
人工智能·深度学习·语言模型·多模态
大千AI助手1 天前
掩码语言模型(MLM)技术解析:理论基础、演进脉络与应用创新
人工智能·神经网络·机器学习·语言模型·自然语言处理·mlm·掩码
ReinaXue2 天前
大模型【进阶】(四)QWen模型架构的解读
人工智能·神经网络·语言模型·transformer·语音识别·迁移学习·audiolm
缘友一世2 天前
LangGraph智能体(天气和新闻助手)开发与部署
语言模型·langchain·大模型·llm·langgraph
木鱼时刻2 天前
李宏毅2025《机器学习》-第九讲:大型语言模型评测的困境与“古德哈特定律”**
人工智能·机器学习·语言模型
三道杠卷胡2 天前
【AI News | 20250729】每日AI进展
人工智能·python·计算机视觉·语言模型·aigc
懂得节能嘛.2 天前
【LangChain4j 详解】Java生态大语言模型框架设计哲学与架构原理
java·人工智能·语言模型