再也不用像以前那样硬着头皮啃代码了,借助AI去分析理解项目的架构设计、核心技术原理。
如果你计划在国内环境的本机上配置一套类似 DeepWiki 的代码文档生成系统,以下是经过优化的部署方案,涵盖开源项目选择、配置细节、网络优化及资源要求等关键环节。结合多个项目实践,以下是最适合本地部署的四种方案:
🚀 一、基于 DeepWiki-Open 的 Docker 快速部署(推荐新手)
项目地址 :AsyncFuncAI/deepwiki-open
特点:一键生成交互式 Wiki,支持 Mermaid 图表、私有仓库接入,适合快速上手。
部署步骤:
-
克隆项目:
bashgit clone https://github.com/AsyncFuncAI/deepwiki-open.git cd deepwiki-open
-
配置国内镜像加速 (避免拉镜像慢):
编辑
docker-compose.yml
文件,在services
下添加国内镜像源:yamlservices: koalawiki: image: registry.cn-hangzhou.aliyuncs.com/asyncfunc/deepwiki-open # 替换为阿里云镜像
-
配置 API 密钥 :
创建
.env
文件,填写以下内容(需注册国内可用的大模型服务):ini# 使用国内模型服务(如 DeepSeek、ChatGLM) OPENAI_API_KEY=sk-xxx # 替换为 DeepSeek 或智谱 API Key ENDPOINT=https://api.deepseek.com/v1 # 例如 DeepSeek 的 API 地址
-
启动服务:
docker-compose up -d
-
访问系统 :
浏览器打开
http://localhost:3000
,粘贴 GitHub/GitLab 仓库 URL 即可生成文档。
🧩 二、基于 OpenDeepWiki 的完整解决方案
项目地址 :AIDotNet/OpenDeepWiki
特点:支持多仓库、多语言、企业级权限管理,适合长期使用。
部署步骤:
-
拉取项目:
bashgit clone https://gitee.com/AIDotNet/OpenDeepWiki.git # 国内推荐 Gitee cd OpenDeepWiki
-
配置 Docker 镜像 :
修改
docker-compose.yml
中的镜像地址为国内源:yamlservices: koalawiki: image: registry.cn-shenzhen.aliyuncs.com/aidotnet/opendeepwiki
-
配置模型服务(二选一):
-
国内在线模型(如 DeepSeek-V3):
yamlenvironment: CHAT_MODEL: DeepSeek-V3 CHAT_API_KEY: sk-xxx # 从 https://platform.deepseek.com 获取 ENDPOINT: https://api.deepseek.com/v1
-
本地离线模型(需 GPU):
bashCHAT_MODEL: qwen2.5:32b-instruct-fp16 # 需自行部署 Ollama 服务 ENDPOINT: http://localhost:11434/v1
-
-
启动与访问:
docker-compose up -d
访问
http://localhost:8090
,添加仓库后自动生成文档。
🔒 三、本地离线大模型部署方案(适合高安全需求)
适用场景 :代码敏感需完全离线运行
硬件要求:4*RTX 3090(或单卡 48GB 显存)
部署流程:
-
部署 Ollama 服务 :
安装 Ollama 并下载 Qianwen-32B 模型:
arduinocurl -fsSL https://ollama.ai/install.sh | sh ollama run qwen2.5:32b-instruct-fp16
-
配置 OpenDeepWiki :
修改
docker-compose.yml
:yamlenvironment: CHAT_MODEL: qwen2.5:32b-instruct-fp16 ENDPOINT: http://host.docker.internal:11434/v1 # 主机网络访问
-
启动服务:
docker-compose up -d
⚙️ 四、手动部署(适合定制化开发)
环境要求:
-
Python 3.10+、Node.js 18+
-
国内 pip 镜像加速 :
arduinopip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
步骤:
-
后端启动:
bashcd deepwiki-open/api pip install -r requirements.txt python -m api.main # 监听 8000 端口
-
前端启动:
bashcd ../web npm install --registry=https://registry.npmmirror.com # 使用 npm 镜像 npm run dev # 监听 3000 端口
💎 配置总结表(快速选择)
方案 | 难度 | 硬件要求 | 网络依赖 | 适用场景 |
---|---|---|---|---|
DeepWiki-Open | ⭐️⭐️ | 8GB RAM + SSD | 需模型 API | 快速体验公开/私有仓库 |
OpenDeepWiki | ⭐️⭐️⭐️ | 16GB RAM + SSD | 可选离线 | 企业多仓库管理 |
本地大模型部署 | ⭐️⭐️⭐️⭐️ | 4*GPU(显存≥24GB) | 无 | 高安全敏感代码 |
手动部署 | ⭐️⭐️⭐️⭐️ | 16GB RAM + SSD | 无 | 深度定制开发需求 |
⚠️ 关键注意事项
-
网络优化:
- Docker 镜像拉取慢 → 替换为
registry.cn-hangzhou.aliyuncs.com
等国内源 - pip/npm 安装慢 → 配置清华/阿里镜像源
- Docker 镜像拉取慢 → 替换为
-
模型选择建议:
- 优先选 DeepSeek-V3 、ChatGLM4 等国内 API,平衡成本与效果
- 离线部署仅建议 32B+ 参数模型(如 Qwen-72B),小模型生成质量较差
-
私有仓库支持:
- 在 Web 界面添加 GitHub/GitLab PAT(个人访问令牌)
- 本地项目可直接压缩为 ZIP 上传至 OpenDeepWiki
-
常见问题:
- 若启动失败 → 检查
.env
中 API Key 是否有效 - 图表不生成 → 设置
REPAIR_MERMAID=1
- 若启动失败 → 检查
部署完成后,你将在本机拥有一个完全私有的 AI 代码文档系统,支持一键解析仓库、生成架构图、智能问答。安全可控 + 高效检索,尤其适合企业内网或学术研究场景。如需进一步优化,可参考各项目的 GitHub Wiki 或加入开发者社区 。