在 Ubuntu 中用 Docker 安装 RAGFlow

一、安装

1.前提条件

CPU >= 4 核

RAM >= 16 GB

Disk >= 50 GB

Docker >= 24.0.0 & Docker Compose >= v2.26.1

安装docker:在Ubuntu中安装Docker并配置国内镜像

2.设置 vm.max_map_count

bash 复制代码
#设置 vm.max_map_count 不小于 262144

# 查看
sysctl vm.max_map_count

# 设置(下次系统重启时被重置)
sudo sysctl -w vm.max_map_count=262144

# 永久设置
sudo vim /etc/sysctl.conf

# sysctl.conf添加内容
vm.max_map_count=262144

3.下载

bash 复制代码
git clone https://github.com/infiniflow/ragflow.git

4.拉取镜像,启动服务

bash 复制代码
# 进入文件夹
cd ragflow/docker

# CPU
# Use CPU for embedding and DeepDoc tasks:
docker compose -f docker-compose.yml up -d

# GPU
# To use GPU to accelerate embedding and DeepDoc tasks:
docker compose -f docker-compose-gpu.yml up -d

5.确认服务器状态

bash 复制代码
# 查看ragflow日志
docker logs -f ragflow-server

# 查看容器
docker ps

docker ps -a

# 查看镜像
docker images

# 停止容器
docker stop <容器名>

# 删除容器
docker rm <容器ID>

# 删除镜像
docker rmi  <镜像名/镜像ID>

docker命令参考链接:docker常用命令

6.访问ragflow平台

bash 复制代码
http://ip:port

http://ip/login

注册账号,登录

安装ragflow参考官方链接:ragflow/README_zh

添加ollama模型参考链接:Windows 11 搭建私有知识库(docker、dify、deepseek、ollama)

二、遇到的问题

1.问题

在RAGFlow平台模型提供商添加Ollama模型过程中,可以添加Ollama本地模型,但是在系统模型设置中无法设置

解决方法:

(1)API添加API KEY

(2)添加Ollama模型时填入API-Key导入模型

(3)可在系统模型设置中设置该新添加的Ollama模型

参考链接:rangflow无法使用本地部署的模型

相关推荐
Easy数模3 分钟前
使用llm进行高级主题建模:通过利用 BERTopic 的表示模型和生成式 AI 深入探讨主题建模
人工智能·llm·nlp
你可以叫我仔哥呀7 分钟前
Java程序员学从0学AI(七)
java·开发语言·人工智能·ai·spring ai
益莱储中国12 分钟前
是德科技 | AI上车后,这条“高速公路”如何畅通?
人工智能·科技
小张童鞋。17 分钟前
Datawhale AI夏令营--Task2:理解项目目标、从业务理解到技术实现!
人工智能
AI4Sci.18 分钟前
在云服务器上基于lora微调Qwen2.5-VL-7b-Instruct模型(下)
人工智能·算法·机器学习·大模型·lora微调·大模型本地部署·qwen2.5-vl-7b
阿里云大数据AI技术29 分钟前
数据开发再提速!DataWorks正式接入Qwen3-Coder
大数据·人工智能·数据分析
Xxtaoaooo30 分钟前
MCP协议全景解析:从工业总线到AI智能体的连接革命
大数据·人工智能·mcp协议·mcp解析·工业mcp
望获linux1 小时前
【Linux基础知识系列】第六十四篇 - 了解Linux的硬件架构
linux·运维·服务器·开发语言·数据库·操作系统·嵌入式软件
空中湖1 小时前
PyTorch武侠演义 第一卷:初入江湖 第7章:矿洞中的计算禁制
人工智能·pytorch·python
新智元1 小时前
毕树超入职Meta后首发声:十年前怀疑AGI,如今深信AGI已至!
人工智能·openai