ubuntu22.04安装RAGFlow配合DeepSeek搭建本地知识库

一、简介

RAGFlow 是一个基于对文档的深入理解的开源 RAG(检索增强生成)引擎。当与 LLM 集成时,它能够提供真实的问答功能,并以来自各种复杂格式数据的有根据的引用为后盾。

二、安装

1.环境要求
  • CPU ≥ 4 核 (x86);
  • RAM ≥ 16 GB;
  • 磁盘 ≥ 50 GB;
  • Docker ≥ 24.0.0 和 Docker Compose ≥ v2.26.1;
2.系统配置

vm.max_map_count.此值设置进程可以具有的最大内存映射区域数。其默认值为 65530。虽然大多数应用程序需要的映射少于 1000 个,但减小此值可能会导致异常行为,并且当进程达到限制时,系统将引发内存不足错误。

操作步骤:

bash 复制代码
# 检查vm.max_map_count
sysctl vm.max_map_count
# 临时设置
sysctl -w vm.max_map_count=262144
# 永久设置
vim  /etc/sysctl.conf
vm.max_map_count=262144  #添加
3.docker安装

操作步骤:

bash 复制代码
# 安装docker及依赖
apt update
apt-get install ca-certificates curl gnupg
# 使用国内源
curl -fsSL https://mirrors.aliyun.com/docker-ce/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg
echo \
  "deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://mirrors.aliyun.com/docker-ce/linux/ubuntu \
  "$(. /etc/os-release && echo "$VERSION_CODENAME")" stable" | \
  sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
apt update
apt install -y docker-ce=5:27.5.1-1~ubuntu.22.04~jammy
# 启动
systemctl start docker
systemctl status docker
systemctl enable docker
# docker-compose安装
wget https://github.com/docker/compose/releases/download/v2.33.0/docker-compose-linux-x86_64
chmod +x docker-compose-linux-x86_64
 cp -r docker-compose-linux-x86_64 /usr/local/bin/docker-compose
4.安装RAGFlow

1.下载:

bash 复制代码
git clone https://github.com/infiniflow/ragflow.git
cd ragflow/docker

2.设置变量并启动服务:

bash 复制代码
ls -a
vim .env
# 修改
RAGFLOW_IMAGE=infiniflow/ragflow:v0.16.0
# 启动
docker-compose -f docker-compose.yml up -d

3.检查服务运行状态

bash 复制代码
docker logs -f ragflow-server

4.在web浏览器中,输入服务器IP地址并登录RAGFlow。

三、配置LLM

1.配置本地模型:

点击头像,选择模型供应商,选择Ollama即可;

模型类型选择chat,并输入本地url。

四、创建知识库

点击创建知识库:

选择文档语言、权限、模型即可:

上传知识文档:

选择解析文件:

五、创建知识库问答

创建助理:

提示引擎、模式设置可以根据自己的需求进行微调。

测试一下啊,可以正常使用。

六、相关资料

链接: ragflow文档

相关推荐
知了一笑2 天前
互联网十年,从博客到知识库
笔记·博客·知识库·自媒体
大模型教程7 天前
Windows系统本地知识库构建:Cherry Studio+Ollama
llm·agent·ollama
Qiuner8 天前
快速入门LangChain4j Ollama本地部署与阿里百炼请求大模型
语言模型·langchain·nlp·llama·ollama
景天科技苑8 天前
【AI智能体开发】什么是LLM?如何在本地搭建属于自己的Ai智能体?
人工智能·llm·agent·智能体·ai智能体·ollama·智能体搭建
bestcxx9 天前
0.3、AI Agent 知识库、召回、Recall、Embedding等 相关的概念
embedding·知识库·dify·rag·ai agent·recall·召回
安替-AnTi11 天前
PandaWiki:AI 驱动的开源知识库系
人工智能·embedding·检索增强·知识库·rag·查询优化
尽兴-13 天前
【10 分钟!M4 Mac mini 离线部署「私有 ChatGPT」完整实录】
macos·ai·chatgpt·大模型·ollama·私有化
成子不是橙子14 天前
Langchain | Ollama | Python快速上手使用LLM的DEMO
开发语言·python·langchain·ollama
深色風信子14 天前
SpringAI 本地调用 Ollama
rag·ollama·springai·springai ollama
大模型教程14 天前
AI 新玩法:GraphRAG × Ollama 打造更聪明的智能体
程序员·llm·ollama