ubuntu22.04安装RAGFlow配合DeepSeek搭建本地知识库

一、简介

RAGFlow 是一个基于对文档的深入理解的开源 RAG(检索增强生成)引擎。当与 LLM 集成时,它能够提供真实的问答功能,并以来自各种复杂格式数据的有根据的引用为后盾。

二、安装

1.环境要求
  • CPU ≥ 4 核 (x86);
  • RAM ≥ 16 GB;
  • 磁盘 ≥ 50 GB;
  • Docker ≥ 24.0.0 和 Docker Compose ≥ v2.26.1;
2.系统配置

vm.max_map_count.此值设置进程可以具有的最大内存映射区域数。其默认值为 65530。虽然大多数应用程序需要的映射少于 1000 个,但减小此值可能会导致异常行为,并且当进程达到限制时,系统将引发内存不足错误。

操作步骤:

bash 复制代码
# 检查vm.max_map_count
sysctl vm.max_map_count
# 临时设置
sysctl -w vm.max_map_count=262144
# 永久设置
vim  /etc/sysctl.conf
vm.max_map_count=262144  #添加
3.docker安装

操作步骤:

bash 复制代码
# 安装docker及依赖
apt update
apt-get install ca-certificates curl gnupg
# 使用国内源
curl -fsSL https://mirrors.aliyun.com/docker-ce/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg
echo \
  "deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://mirrors.aliyun.com/docker-ce/linux/ubuntu \
  "$(. /etc/os-release && echo "$VERSION_CODENAME")" stable" | \
  sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
apt update
apt install -y docker-ce=5:27.5.1-1~ubuntu.22.04~jammy
# 启动
systemctl start docker
systemctl status docker
systemctl enable docker
# docker-compose安装
wget https://github.com/docker/compose/releases/download/v2.33.0/docker-compose-linux-x86_64
chmod +x docker-compose-linux-x86_64
 cp -r docker-compose-linux-x86_64 /usr/local/bin/docker-compose
4.安装RAGFlow

1.下载:

bash 复制代码
git clone https://github.com/infiniflow/ragflow.git
cd ragflow/docker

2.设置变量并启动服务:

bash 复制代码
ls -a
vim .env
# 修改
RAGFLOW_IMAGE=infiniflow/ragflow:v0.16.0
# 启动
docker-compose -f docker-compose.yml up -d

3.检查服务运行状态

bash 复制代码
docker logs -f ragflow-server

4.在web浏览器中,输入服务器IP地址并登录RAGFlow。

三、配置LLM

1.配置本地模型:

点击头像,选择模型供应商,选择Ollama即可;

模型类型选择chat,并输入本地url。

四、创建知识库

点击创建知识库:

选择文档语言、权限、模型即可:

上传知识文档:

选择解析文件:

五、创建知识库问答

创建助理:

提示引擎、模式设置可以根据自己的需求进行微调。

测试一下啊,可以正常使用。

六、相关资料

链接: ragflow文档

相关推荐
安娜的信息安全说7 小时前
Ollama 使用详解:本地部署大语言模型的指南
人工智能·ai·语言模型·ollama
lypzcgf9 小时前
Coze源码分析-资源库-编辑知识库-前端源码-核心组件
前端·知识库·coze·coze源码分析·智能体平台·ai应用平台·agent平台
安娜的信息安全说1 天前
Hugging Face vs Ollama:云端协作与本地隐私的AI平台对决
人工智能·hugging face·ollama
mCell9 天前
长期以来我对 LLM 的误解
深度学习·llm·ollama
A尘埃9 天前
Cherry Studio+Ollama+大模型+向量模型,实现RAG私有知识库。智能体实现EXCEL转化为一个报表图表
rag·ollama·cherry studio
邂逅星河浪漫11 天前
【Spring AI】Ollama大模型-智能对话实现+项目实战(Spring Boot + Vue)
java·人工智能·spring boot·vue·prompt·agent·ollama
大模型教程11 天前
揭秘 Ollama+DeepSeek-R1+RAGFlow 本地RAG专属知识库、Agent智能助手搭建秘籍!
程序员·llm·ollama
水冗水孚15 天前
图文并茂记录:Ubuntu上安装Ollama大模型提供Serve,前端调用实现AI对话功能
nginx·ubuntu·ollama
大模型教程24 天前
本地AI知识库问答开源技术实现(二)--配置模型和知识库
程序员·llm·ollama
正经教主25 天前
【慢教程】Ollama4:ollama命令汇总
人工智能·ollama