ubuntu22.04安装RAGFlow配合DeepSeek搭建本地知识库

一、简介

RAGFlow 是一个基于对文档的深入理解的开源 RAG(检索增强生成)引擎。当与 LLM 集成时,它能够提供真实的问答功能,并以来自各种复杂格式数据的有根据的引用为后盾。

二、安装

1.环境要求
  • CPU ≥ 4 核 (x86);
  • RAM ≥ 16 GB;
  • 磁盘 ≥ 50 GB;
  • Docker ≥ 24.0.0 和 Docker Compose ≥ v2.26.1;
2.系统配置

vm.max_map_count.此值设置进程可以具有的最大内存映射区域数。其默认值为 65530。虽然大多数应用程序需要的映射少于 1000 个,但减小此值可能会导致异常行为,并且当进程达到限制时,系统将引发内存不足错误。

操作步骤:

bash 复制代码
# 检查vm.max_map_count
sysctl vm.max_map_count
# 临时设置
sysctl -w vm.max_map_count=262144
# 永久设置
vim  /etc/sysctl.conf
vm.max_map_count=262144  #添加
3.docker安装

操作步骤:

bash 复制代码
# 安装docker及依赖
apt update
apt-get install ca-certificates curl gnupg
# 使用国内源
curl -fsSL https://mirrors.aliyun.com/docker-ce/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg
echo \
  "deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://mirrors.aliyun.com/docker-ce/linux/ubuntu \
  "$(. /etc/os-release && echo "$VERSION_CODENAME")" stable" | \
  sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
apt update
apt install -y docker-ce=5:27.5.1-1~ubuntu.22.04~jammy
# 启动
systemctl start docker
systemctl status docker
systemctl enable docker
# docker-compose安装
wget https://github.com/docker/compose/releases/download/v2.33.0/docker-compose-linux-x86_64
chmod +x docker-compose-linux-x86_64
 cp -r docker-compose-linux-x86_64 /usr/local/bin/docker-compose
4.安装RAGFlow

1.下载:

bash 复制代码
git clone https://github.com/infiniflow/ragflow.git
cd ragflow/docker

2.设置变量并启动服务:

bash 复制代码
ls -a
vim .env
# 修改
RAGFLOW_IMAGE=infiniflow/ragflow:v0.16.0
# 启动
docker-compose -f docker-compose.yml up -d

3.检查服务运行状态

bash 复制代码
docker logs -f ragflow-server

4.在web浏览器中,输入服务器IP地址并登录RAGFlow。

三、配置LLM

1.配置本地模型:

点击头像,选择模型供应商,选择Ollama即可;

模型类型选择chat,并输入本地url。

四、创建知识库

点击创建知识库:

选择文档语言、权限、模型即可:

上传知识文档:

选择解析文件:

五、创建知识库问答

创建助理:

提示引擎、模式设置可以根据自己的需求进行微调。

测试一下啊,可以正常使用。

六、相关资料

链接: ragflow文档

相关推荐
会飞的果粒橙20 小时前
在Ubuntu24上安装ollama
ollama·deepseek
ZHOU_WUYI11 天前
Ragflow 源码:ragflow_server.py
ragflow
_pass_12 天前
Docker 运行RAGFlow 搭建RAG知识库
ollama·ragflow
ZHOU_WUYI12 天前
Ragflow 源码:task_executor.py
数据库·agent·ragflow
ZHOU_WUYI12 天前
Ragflow源码:launch_backend_service.sh
agent·ragflow
5ycode13 天前
深度拆解RAGFlow分片引擎之切片实现
知识库·rag·ragflow
ZHOU_WUYI14 天前
Python Minio库连接和操作Minio数据库
数据库·ragflow
ExperDot15 天前
如何用大语言模型提取任意文档中的知识点
ai·llm·知识库·rag
关山月17 天前
使用 Ollama 和 Next.js 构建 AI 助理(使用 LangChain、Pinecone 和 Ollama 实现 RAG)
ollama
ZackSock18 天前
自己开发 MCP 服务器
llm·ollama·mcp