基于去年我们写的《大模型面试宝典》(2024版)的基础上,我根据自己实践经验和星球小伙伴的面经分享总结推出《大模型面试宝典》(2025版),共计52w+字。
与去年相比,内容增加了星球成员面试真题分享、大模型最新考试要点总结、DeepSeek 项目实战、业内同行大模型实战项目总结,同时删除了一些老旧内容。
相信读完后,无论你是学生还是在职人员,在求职面试和工程实践方面一定能会有所收获。
内容概况
受限于文章篇幅,宝典内容部分展示如上图所示
获取方式
今天,我们就来聊聊:如何在企业内部私有化部署 DeepSeek,并结合 Dify 构建企业级知识库共享方案。
注:
本文软件部署环境为:
Ubuntu22.04+Docker。
为什么要私有化部署 DeepSeek?
如果你在企业里推动 AI 落地,老板可能会问你:"为什么我们不能直接用大模型在线API?"
答案很简单:
数据安全:企业的核心文档、客户资料、专利数据等都需要严格保密,公有云大模型的 API 调用存在数据泄露风险。
成本可控:大规模使用大模型API,长期来看成本会非常可观,而本地部署 DeepSeek 只需要一次性投入服务器成本。
个性化训练:私有化部署允许企业定制模型,适配特定业务场景。
所以,企业想真正利用 AI 赋能业务,私有化部署是王道!
DeepSeek 私有化部署指南(基于 Ollama)
01
DeepSeek部署硬件要求
以下为DeepSeek-r1不同参数模型部署所建议硬件要求(仅供参考):
02
安装 Ollama 并部署 DeepSeek
在命令符界面输入如下命令下载Ollama镜像:
bash
docker pull ollama/ollama
使用下面的命令部署运行Ollama(Portainer 或 docker compose):
bash
version: '3.9'
services:
ollama:
image: ollama/ollama
container_name: my-ollama #容器名字可自己定义
restart: always
ports:
- "11434:11434"
volumes:
- /ollama/models:/root/.ollama # 模型存放路径自己定义
等Ollama容器运行起来后,在系统命令行中执行如下语句安装DeepSeek-r1,本次我们作为测试,安装模型参数为1.5b。
bash
# 进入Ollama容器
docker exec -it my-ollama /bin/bash
# 执行下载模型命令
ollama run deepseek-r1
等待模型下载完成后,即可执行exit命令退出容器。
集成 Dify 进行知识库共享
01
安装Dify
Dify 是一个开源的 AI 应用构建平台,支持私有化部署,企业可以用它轻松管理知识库。
Dify下载地址:
https://github.com/langgenius/dify
下载完成后,上传到系统指定目录,解压后并执行如下命令进行安装:
bash
cd dify
cd docker
cp .env.example .env
docker compose up -d
02
连接 DeepSeek API
设置完Dify的管理员后,我们进入Dify页面:
在 Dify 后台,左上角用户图标下拉菜单下,我们选择设置-模型提供商,选择Ollama模型提供商,并输入接口信息,点击保存,如下图: