ubuntu22.04安装RAGFlow配合DeepSeek搭建本地知识库

一、简介

RAGFlow 是一个基于对文档的深入理解的开源 RAG(检索增强生成)引擎。当与 LLM 集成时,它能够提供真实的问答功能,并以来自各种复杂格式数据的有根据的引用为后盾。

二、安装

1.环境要求
  • CPU ≥ 4 核 (x86);
  • RAM ≥ 16 GB;
  • 磁盘 ≥ 50 GB;
  • Docker ≥ 24.0.0 和 Docker Compose ≥ v2.26.1;
2.系统配置

vm.max_map_count.此值设置进程可以具有的最大内存映射区域数。其默认值为 65530。虽然大多数应用程序需要的映射少于 1000 个,但减小此值可能会导致异常行为,并且当进程达到限制时,系统将引发内存不足错误。

操作步骤:

bash 复制代码
# 检查vm.max_map_count
sysctl vm.max_map_count
# 临时设置
sysctl -w vm.max_map_count=262144
# 永久设置
vim  /etc/sysctl.conf
vm.max_map_count=262144  #添加
3.docker安装

操作步骤:

bash 复制代码
# 安装docker及依赖
apt update
apt-get install ca-certificates curl gnupg
# 使用国内源
curl -fsSL https://mirrors.aliyun.com/docker-ce/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg
echo \
  "deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://mirrors.aliyun.com/docker-ce/linux/ubuntu \
  "$(. /etc/os-release && echo "$VERSION_CODENAME")" stable" | \
  sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
apt update
apt install -y docker-ce=5:27.5.1-1~ubuntu.22.04~jammy
# 启动
systemctl start docker
systemctl status docker
systemctl enable docker
# docker-compose安装
wget https://github.com/docker/compose/releases/download/v2.33.0/docker-compose-linux-x86_64
chmod +x docker-compose-linux-x86_64
 cp -r docker-compose-linux-x86_64 /usr/local/bin/docker-compose
4.安装RAGFlow

1.下载:

bash 复制代码
git clone https://github.com/infiniflow/ragflow.git
cd ragflow/docker

2.设置变量并启动服务:

bash 复制代码
ls -a
vim .env
# 修改
RAGFLOW_IMAGE=infiniflow/ragflow:v0.16.0
# 启动
docker-compose -f docker-compose.yml up -d

3.检查服务运行状态

bash 复制代码
docker logs -f ragflow-server

4.在web浏览器中,输入服务器IP地址并登录RAGFlow。

三、配置LLM

1.配置本地模型:

点击头像,选择模型供应商,选择Ollama即可;

模型类型选择chat,并输入本地url。

四、创建知识库

点击创建知识库:

选择文档语言、权限、模型即可:

上传知识文档:

选择解析文件:

五、创建知识库问答

创建助理:

提示引擎、模式设置可以根据自己的需求进行微调。

测试一下啊,可以正常使用。

六、相关资料

链接: ragflow文档

相关推荐
wuli_滔滔12 小时前
Qwen2.5、Llama 3.1轻量模型本地化部署指南:从环境配置到企业级实战
vllm·ollama·qwen2.5·llama 3.1
重整旗鼓~2 天前
2.LangChain4j+springboot+大模型整合
openai·springboot·ollama·langchain4j
用什么都重名3 天前
设置 Ollama 容器自动重启和模型自动加载的方法
人工智能·ollama·自加载
七夜zippoe7 天前
基于Qwen2.5-7B-Chat的本地化部署实战——从模型原理到企业级应用
vllm·ollama·qwen2.5·gradio web·企业级api
loong_XL10 天前
MCP实现Agentic RAG server案例
知识库·mcp
Jack_abu11 天前
RAG系统学习之——RAG技术详解与实战指南
llm·rag·ollama
血小溅14 天前
Ollama 鉴权方案实现教程
ollama
York·Zhang18 天前
Ollama:在本地运行大语言模型的利器
人工智能·语言模型·自然语言处理·ollama
大模型教程21 天前
30分钟内搞定!在本地电脑上部署属于你自己的大模型
llm·agent·ollama
血小溅23 天前
Spring Boot 整合 Spring AI:接入 DeepSeek 与 Ollama 调用大模型
后端·ollama·deepseek