解决RAGFlow部署中镜像源拉取的问题

报错提示

Error response from daemon: Get "https://registry-1.docker.io/v2/ ": context deadline exceeded

解决方法

这个原因是因为拉取镜像源失败,可以在/etc/docker/daemon.json文件中添加镜像加速器,例如下面所示

bash 复制代码
{
  "registry-mirrors" : [
    "https://docker.m.daocloud.io",
    "https://mirror.aliyuncs.com"
  ],
  "insecure-registries" : [
    "docker.mirrors.ustc.edu.cn"
  ],
  "debug": true,
  "experimental": false
}

配置之后记得重启docker,加载一下。

bash 复制代码
sudo systemctl restart docker

然后记得查看docker info是否有输出Registry Mirrors字段。我就是在这个坑里困了好久,我反复配置镜像加速器,但就是不输出Registry Mirrors字段。下面就给大家说一下如何解决。

docker info不输出Registry Mirrors字段

很有可能是docker守护了两个进程实例,存在两个不同文件夹下的deamon.json文件,造成了冲突,镜像加速器没有正确加载进来。输入以下命令查看Docker守护进程日志

bash 复制代码
ps aux | grep dockerd

解决方案

停止正在运行的Docker守护进程

bash 复制代码
sudo systemctl stop docker

再次查看有没有停掉

bash 复制代码
ps aux | grep dockerd

如果没有的话,可以进行手动停止

bash 复制代码
sudo kill -9 1186266 #将 1186266 替换为实际的进程 ID

然后记得重新启动Docker 守护进程,确保它使用正确的配置文件

bash 复制代码
sudo systemctl start docker

再次验证一下配置是否生效

bash 复制代码
docker info

这样的话就是配置好了

然后就可以启动啦,完美解决!

相关推荐
c++服务器开发18 小时前
掌握RAG系统的七个优秀GitHub存储库
人工智能·python·github·rag
York·Zhang3 天前
Ollama:在本地运行大语言模型的利器
人工智能·语言模型·自然语言处理·ollama
cooldream20093 天前
构建智能知识库问答助手:LangChain与大语言模型的深度融合实践
人工智能·语言模型·langchain·rag
大千AI助手5 天前
Graph-R1:智能图谱检索增强的结构化多轮推理框架
人工智能·神经网络·大模型·rag·检索增强生成·大千ai助手·graph-r1
Better Bench5 天前
【大模型RAG安全基准】安装和使用SafaRAG框架
网络·人工智能·安全·大模型·组件·rag
陈果然DeepVersion5 天前
Java大厂面试真题:Spring Boot+Kafka+AI智能客服场景全流程解析(十)
java·spring boot·ai·kafka·面试题·向量数据库·rag
陈果然DeepVersion6 天前
Java大厂面试真题:Spring Boot+微服务+AI智能客服三轮技术拷问实录(六)
java·spring boot·redis·微服务·面试题·rag·ai智能客服
大模型教程6 天前
30分钟内搞定!在本地电脑上部署属于你自己的大模型
llm·agent·ollama
陈果然DeepVersion6 天前
Java大厂面试真题:Spring Boot+Kafka+AI智能客服场景全流程解析(十一)
java·spring boot·微服务·ai·kafka·面试题·rag
寒秋丶6 天前
Milvus:Json字段详解(十)
数据库·人工智能·python·ai·milvus·向量数据库·rag