文章目录
一、关于 DocsGPT
DocsGPT是一种尖端的开源解决方案,它简化了在项目文档中查找信息的过程,通过其强大的GPT模型的集成,开发人员可以轻松地提出关于项目的问题并获得准确的答案。
告别耗时的手动搜索,让 DocsGPT 帮助您快速找到所需的信息,看看它如何彻底改变您的项目文档体验为其发展做出贡献,成为AI驱动辅助未来的一部分。
- github : https://github.com/arc53/DocsGPT
- 官网:https://www.docsgpt.cloud/
- 官方文档:https://docs.docsgpt.cloud/
- 在线应用:https://app.docsgpt.cloud/
- discord : https://discord.gg/n5BX8dh8rU
- twitter : https://twitter.com/docsgptai
- 👫 贡献 : https://github.com/arc53/DocsGPT/blob/main/CONTRIBUTING.md
- 📁🚀如何使用任何其他文档训练 : https://docs.docsgpt.cloud/Guides/How-to-train-on-other-documentation
- 🏠🔐如何在本地托管它(以便所有数据都保留在本地): https://docs.docsgpt.cloud/Guides/How-to-use-different-LLM
对公司的生产支持/帮助:
在将DocsGPT部署到实时环境时,我们渴望提供个性化帮助。
- 获取企业/团队演示👋
- [发送电子邮件📧](mailto:contact@arc53.com?subject=DocsGPT support%2Fsolutions)
Roadmap
您可以在这里找到我们的路线图。
请不要犹豫,贡献或创建问题,它有助于我们改进DocsGPT!
我们针对DocsGPT优化的开源模型:
名称 | 基本型号 | 要求(或类似) |
---|---|---|
Docsgpt-7b-mistral | 米斯特拉尔-7b | 1xA10G gpu |
Docsgpt-14b | llama-2-14b | 2xA10 gpu's |
Docsgpt-40b-falcon | -40b | 8xA10G gpu's |
如果您没有足够的资源来运行它,您可以使用bitsnbytes来量化。
用于信息检索的端到端AI框架
项目结构
二、快速入门
注 : 确保您已安装Docker
在Mac OS或Linux,写:
shell
./setup.sh
它将安装所有依赖项并允许您下载本地模型、使用OpenAI或使用我们的LLM API。
否则,请参阅本Windows指南:
1、下载并使用
shell
git clone https://github.com/arc53/DocsGPT.git
2、在根目录中创建一个.env
文件,并将 env变量和 VITE_API_STREAMING
设置为true或false,具体取决于您是否想要流式传输答案。 里面应该是这样的:
shell
LLM_NAME=[docsgpt or openai or others]
VITE_API_STREAMING=true
API_KEY=[if LLM_NAME is openai]
请参阅 /.env-template
和 /application/.env_sample
文件中的可选环境变量。
3、运行 ./run-with-docker-compose.sh
。
4、导航到 http://localhost:5173/ 。
要停止,只需运行Ctrl + C
。
三、开发环境
1、启动 Mongo 和 Redis
对于开发,只使用了 docker-comple.yaml中的两个容器(通过删除除Redis和Mongo之外的所有服务)。 请参见文件docker-compose-dev.yaml。
运行
shell
docker compose -f docker-compose-dev.yaml build
docker compose -f docker-compose-dev.yaml up -d
2、运行后端
注 : 确保您安装了Python 3.10或3.11。
1、导出所需的环境变量 或 在项目文件夹中准备.env
文件:
- 复制 .env_sample 并创建
.env
。
(如果您想查看更多配置选项,请查看application/core/settings.py
。)
2、(可选)创建Python虚拟环境: 您可以按照虚拟环境的Python官方文档。
a)在Mac OS和Linux
shell
python -m venv venv
. venv/bin/activate
b)在Windows上
shell
python -m venv venv
venv/Scripts/activate
3、下载嵌入模型并保存在model/
文件夹中: 您可以使用下面的脚本,或者从这里手动下载,解压缩并保存在model/
文件夹中。
shell
wget https://d3dg1063dc54p9.cloudfront.net/models/embeddings/mpnet-base-v2.zip
unzip mpnet-base-v2.zip -d model
rm mpnet-base-v2.zip
4、为后端安装依赖项:
shell
pip install -r application/requirements.txt
5、使用下面命令运行app :
shell
flask --app application/app.py run --host=0.0.0.0 --port=7091
6、启动 worker
shell
celery -A application.app.celery worker -l INFO
3、启动前端
注 : 确保您拥有Node版本16或更高版本。
- 导航到/frontend文件夹。
- 安装所需的包
husky
和vite
(如果已经安装,请忽略)。
shell
npm install husky -g
npm install vite -g
3、安装依赖
shell
npm install --include=dev
4、运行应用
shell
npm run dev
2024-08-04(日)