2025-05-08-deepseek本地化部署


title: 2025-05-08-deepseek 本地化部署

tags:
深度学习
程序开发

2025-05-08-deepseek 本地化部署

参考博客
本地部署 DeepSeek:小白也能轻松搞定!

如何给本地部署的 DeepSeek 投喂数据,让他更懂你

实验目的\]:理解系统架构与原理,掌握 DeepSeek 的基本工作原理、内部架构和检索机制,了解其在大规模语义检索中的优势。学习如何在本地环境中部署和调试 DeepSeek 系统,包括环境配置、依赖安装、参数调优等关键步骤。 ### **我的电脑硬件配置** * CPU:英特尔酷睿 i5-13600KF 十四核 * GPU: 4060TI 8G * 内存:16GB * 操作系统:Windows 11 ![17467115411301746711540958.png](https://i-blog.csdnimg.cn/img_convert/2f50437944f182346c41cfe0c10d1a8e.png) ## 本地部署 ### **下载并安装 Ollama** 访问官网: 下载 ![1746711596129JMZnbPx10ozMxux4hPTcIqtunjh.png](https://i-blog.csdnimg.cn/img_convert/f2c49cec3283d4774b5dac8b1c0ea505.png) 双击 OllamaSetup.exe 进行安装: ![1746711612129TVVNbC31CoCYhDxCKkbcJSkBnDd.png](https://i-blog.csdnimg.cn/img_convert/cb44f937af194c34e2e5c95255511074.png) ### **通过 Ollama 拉取 DeepSeek 模型** 这里我选择是的 1.5b,整个模型大小 1.1 GB。 更多版本可以在这里查看: ```bash ollama run deepseek-r1:1.5b ``` #### 终端回答 ![1746711633130MXyibKvdcoR5hQxMe6wca3Kknje.png](https://i-blog.csdnimg.cn/img_convert/94d7205bc7014be5f6ed3659cae84705.png) #### 使用 open-webui 包回答 > 注意: > > * 系统需要安装 conda 进行虚拟环境的配置,并且 webui 需要 python 版本在 3.11 才能安装 > * Open WebUI 的核心包大小相对较小,但它会拉取一些额外的依赖包(如用于 RAG 功能的嵌入模型或前端支持的库),这些依赖可能会增加总体安装体积。例如,首次运行时,它可能会下载约 900MB 的嵌入模型(如 all-MiniLM-L6-v2)用于本地功能。 ##### 使用 pip 安装 open-webui 包 > [GitHub - open-webui/open-webui: User-friendly AI Interface (Supports Ollama, OpenAI API, ...)](https://github.com/open-webui/open-webui) > > [DeepSeek-R1 本地部署指南:Ollama 助你轻松实现,支持 2G 显卡](https://zhuanlan.zhihu.com/p/20642808493) * **相关命令** ```bash conda create -n webui python=3.11 conda activate webui pip install open-webui open-webui serve ``` 浏览器访问本地 8080 端口 http://localhost:8080 可以发现 openui 的页面非常类似 chatgpt 的页面,功能也非常丰富 ![1746711653308NpvZbeAjYolqB1x856ucgkZ8nme.png](https://i-blog.csdnimg.cn/img_convert/a873a0f68b6b6486aa072483c6d9853d.png) ##### 使用 docker 安装和运行 open-webui > 注意执行命令之前打开 docker desktop * **相关命令** * 如果 Ollama 在您的计算机上,请使用此命令: ```bash docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main ``` * 如果 Ollama 在不同的服务器上,请使用此命令: * 要连接到另一台服务器上的 Ollama,请将 `OLLAMA_BASE_URL` 更改为服务器的 URL: ```bash docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main ``` * 要使用 Nvidia GPU 支持运行 Open WebUI,请使用此命令: ```bash docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda ``` ![1746711672132MNpobPZcDotI3HxC3COcLU7Gn8c.png](https://i-blog.csdnimg.cn/img_convert/feafc73346333acfaa92759d3f8e5e77.png) ![1746711689131OZBebZZ4DoPg2bxLFWLcJjp2nFe.png](https://i-blog.csdnimg.cn/img_convert/cf5763e5ff45ee8744b0875dc0903dd1.png) 可以发现本地端口映射为 3000,浏览器输入对应网址 http://localhost:3000/即可进入对应的界面 > 实测初始加载和响应速度比似乎用 pip 安装慢了不少,但是后面问题回答速度还是非常快的 #### 使用 `Page Assit` 浏览器插件回答 * **WebUI** **界面** ![1746711710130VY2rbRym1oF4MyxeMbXcReNSnvW.png](https://i-blog.csdnimg.cn/img_convert/6367c5d6de38b8f075fe14ad45d74045.png) * **知识库** > * 使用 nomic-embed-text 文本嵌入模型 ```bash ollama pull nomic-embed-text ``` ![1746711726064OWejb8BWloAcuVxrkFpcdQIbnve.png](https://i-blog.csdnimg.cn/img_convert/b871e4a822b719ab1d6b6e063954ad88.png) * 效果 ![1746711742063XIL9bn9tuoRJDsxQPkucmGBTn1d.png](https://i-blog.csdnimg.cn/img_convert/44d0e6b4ce864ba263d4ad7dbf1133f5.png) ## linux 服务器部署 > [Ollama Linux 部署与应用 LLama 3](https://zhuanlan.zhihu.com/p/694331045) ### Linux 下 Ollama 的安装与配置 ```bash curl -fsSL https://ollama.com/install.sh | sh #也许需要相应的权限才能安装,可以使用命令 sudo curl -fsSL https://ollama.com/install.sh | sh ``` 上面的命令老是网络连接出现问题,因为我使用的是 ubuntu 系统的服务器,也可以使用下面的命令安装,速度快很多 ```bash sudo snap install ollama ``` 后面的步骤和在 windows11 本地部署的流程相类似,都是拉取和运行模型,再使用 docker 部署 open-webui 再访问对应的端口使用,所以对应命令我直接粘贴不再详细解释 ```bash ollama run deepseek-r1:1.5b ``` > 注意后面的命令最好都添加上 sudo,以防不必要的权限报错 #### 启动 Docker 服务 ```bash sudo systemctl start docker ``` #### 查看 Docker 服务状态 ```bash sudo systemctl status docker ``` #### 使用 docker 安装 open-webui ```bash sudo docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main ``` 本地端口映射为 8080,浏览器输入对应网址 http://``:8080/即可进入对应的界面 ![1746711758065YRpwbq3EPoN8h7xLMrfcC2J7n5g.png](https://i-blog.csdnimg.cn/img_convert/d44e4c5206d0e9ab9a73c557c7617062.png) #### 停止 Docker 服务() ```bash sudo systemctl stop docker ``` ## 总结 虽然 1.5B 和 7B 级别的小参数模型在资源占用和响应延迟方面具有明显优势,但其生成效果和理解能力相对有限,仅适用于边缘计算中的基础性任务。不过,在特定场景下仍具备一定的应用价值。对于日常生产中的高质量生成需求,仍推荐使用部署在云端服务器的大参数模型,以确保效果和稳定性。

相关推荐
开源技术5 分钟前
深入了解Turso,这个“用Rust重写的SQLite”
人工智能·python
初恋叫萱萱6 分钟前
构建高性能生成式AI应用:基于Rust Axum与蓝耘DeepSeek-V3.2大模型服务的全栈开发实战
开发语言·人工智能·rust
水如烟7 小时前
孤能子视角:“组织行为学–组织文化“
人工智能
大山同学7 小时前
图片补全-Context Encoder
人工智能·机器学习·计算机视觉
薛定谔的猫19827 小时前
十七、用 GPT2 中文对联模型实现经典上联自动对下联:
人工智能·深度学习·gpt2·大模型 训练 调优
壮Sir不壮8 小时前
2026年奇点:Clawdbot引爆个人AI代理
人工智能·ai·大模型·claude·clawdbot·moltbot·openclaw
PaperRed ai写作降重助手8 小时前
高性价比 AI 论文写作软件推荐:2026 年预算友好型
人工智能·aigc·论文·写作·ai写作·智能降重
玉梅小洋8 小时前
Claude Code 从入门到精通(七):Sub Agent 与 Skill 终极PK
人工智能·ai·大模型·ai编程·claude·ai工具
-嘟囔着拯救世界-8 小时前
【保姆级教程】Win11 下从零部署 Claude Code:本地环境配置 + VSCode 可视化界面全流程指南
人工智能·vscode·ai·编辑器·html5·ai编程·claude code
正见TrueView8 小时前
程一笑的价值选择:AI金玉其外,“收割”老人败絮其中
人工智能