FastGPT 是一个基于 LLM 大语言模型的知识库问答系统,将智能对话与可视化编排完美结合,让 AI 应用开发变得简单自然。无论您是开发者还是业务人员,都能轻松打造专属的 AI 应用。
今天来试着搭建下,使用docker安装比较简单,推荐使用docker安装。
看下推荐配置,fastgpt还分了不同的版本,一般的电脑配置都可以。

1、首先贴上git地址与文档地址
https://github.com/labring/FastGPT
https://doc.tryfastgpt.ai/docs/intro/
2、docker、docker-compose的安装部署参考Ubuntu上docker、docker-compose的安装,win的wsl也适用。
3、下载代码
git clone https://github.com/labring/FastGPT
4、下载config文件,也可直接新建文件将下面代码复制进去。
// 已使用 json5 进行解析,会自动去掉注释,无需手动去除{ "feConfigs": { "lafEnv": "https://laf.dev", // laf环境。 https://laf.run (杭州阿里云) ,或者私有化的laf环境。如果使用 Laf openapi 功能,需要最新版的 laf 。 "mcpServerProxyEndpoint": "" // mcp server 代理地址,例如: http://localhost:3005 }, "systemEnv": { "vectorMaxProcess": 10, // 向量处理线程数量 "qaMaxProcess": 10, // 问答拆分线程数量 "vlmMaxProcess": 10, // 图片理解模型最大处理进程 "tokenWorkers": 30, // Token 计算线程保持数,会持续占用内存,不能设置太大。 "hnswEfSearch": 100, // 向量搜索参数,仅对 PG 和 OB 生效。越大,搜索越精确,但是速度越慢。设置为100,有99%+精度。 "customPdfParse": { "url": "", // 自定义 PDF 解析服务地址 "key": "", // 自定义 PDF 解析服务密钥 "doc2xKey": "", // doc2x 服务密钥 "price": 0 // PDF 解析服务价格 } }}
5、接着下载docker-compose.yml文件
curl -o docker-compose.yml https://raw.githubusercontent.com/labring/FastGPT/main/deploy/docker/docker-compose-pgvector.yml
也可像上一步一样新建一个yml文件,直接粘贴进去。
6、docker 拉取镜像,启动
sudo docker-compose up -d
7、默认端口3000,默认账号root 密码 1234,密码可在docker-compose.yml文件中修改。记得修改后重启即可。最好将地址映射成https的地址。


8、接着咱们来配置本地部署的大模型工具ollama


按照如图所示依次填写。

然后再在模型配置页面添加ollama下面安装好的模型即可。
这就是我搭建的整个过程,大家在搭建的过程中有什么问题的话欢迎留言,大家一起讨论学习。