解决RAGFlow部署中镜像源拉取的问题

报错提示

Error response from daemon: Get "https://registry-1.docker.io/v2/ ": context deadline exceeded

解决方法

这个原因是因为拉取镜像源失败,可以在/etc/docker/daemon.json文件中添加镜像加速器,例如下面所示

bash 复制代码
{
  "registry-mirrors" : [
    "https://docker.m.daocloud.io",
    "https://mirror.aliyuncs.com"
  ],
  "insecure-registries" : [
    "docker.mirrors.ustc.edu.cn"
  ],
  "debug": true,
  "experimental": false
}

配置之后记得重启docker,加载一下。

bash 复制代码
sudo systemctl restart docker

然后记得查看docker info是否有输出Registry Mirrors字段。我就是在这个坑里困了好久,我反复配置镜像加速器,但就是不输出Registry Mirrors字段。下面就给大家说一下如何解决。

docker info不输出Registry Mirrors字段

很有可能是docker守护了两个进程实例,存在两个不同文件夹下的deamon.json文件,造成了冲突,镜像加速器没有正确加载进来。输入以下命令查看Docker守护进程日志

bash 复制代码
ps aux | grep dockerd

解决方案

停止正在运行的Docker守护进程

bash 复制代码
sudo systemctl stop docker

再次查看有没有停掉

bash 复制代码
ps aux | grep dockerd

如果没有的话,可以进行手动停止

bash 复制代码
sudo kill -9 1186266 #将 1186266 替换为实际的进程 ID

然后记得重新启动Docker 守护进程,确保它使用正确的配置文件

bash 复制代码
sudo systemctl start docker

再次验证一下配置是否生效

bash 复制代码
docker info

这样的话就是配置好了

然后就可以启动啦,完美解决!

相关推荐
精致先生20 分钟前
多模态PDF解析
pdf·大模型·rag
spader-ai1 天前
RAG is really dead? 大模型和知识之间的桥梁没了?
人工智能·大模型·rag·上下文工程
mCell4 天前
长期以来我对 LLM 的误解
深度学习·llm·ollama
有点不太正常4 天前
FlippedRAG——论文阅读
论文阅读·安全·大模型·rag
A尘埃4 天前
Cherry Studio+Ollama+大模型+向量模型,实现RAG私有知识库。智能体实现EXCEL转化为一个报表图表
rag·ollama·cherry studio
邂逅星河浪漫6 天前
【Spring AI】Ollama大模型-智能对话实现+项目实战(Spring Boot + Vue)
java·人工智能·spring boot·vue·prompt·agent·ollama
大模型教程6 天前
揭秘 Ollama+DeepSeek-R1+RAGFlow 本地RAG专属知识库、Agent智能助手搭建秘籍!
程序员·llm·ollama
OliverYeung6 天前
【AskAI系列课程】:P3.Agno从阿里云百炼知识库中检索知识库片段并回答用户问题
人工智能·ai·llm·rag·agentic·deepseek·agno
zbk.gyl6 天前
LazyLLM端到端实战:用RAG+Agent实现自动出题与学习计划的个性化学习助手智能体
人工智能·ai·大模型·agent·rag·智能体·lazyllm
水冗水孚10 天前
图文并茂记录:Ubuntu上安装Ollama大模型提供Serve,前端调用实现AI对话功能
nginx·ubuntu·ollama