解决RAGFlow部署中镜像源拉取的问题

报错提示

Error response from daemon: Get "https://registry-1.docker.io/v2/ ": context deadline exceeded

解决方法

这个原因是因为拉取镜像源失败,可以在/etc/docker/daemon.json文件中添加镜像加速器,例如下面所示

bash 复制代码
{
  "registry-mirrors" : [
    "https://docker.m.daocloud.io",
    "https://mirror.aliyuncs.com"
  ],
  "insecure-registries" : [
    "docker.mirrors.ustc.edu.cn"
  ],
  "debug": true,
  "experimental": false
}

配置之后记得重启docker,加载一下。

bash 复制代码
sudo systemctl restart docker

然后记得查看docker info是否有输出Registry Mirrors字段。我就是在这个坑里困了好久,我反复配置镜像加速器,但就是不输出Registry Mirrors字段。下面就给大家说一下如何解决。

docker info不输出Registry Mirrors字段

很有可能是docker守护了两个进程实例,存在两个不同文件夹下的deamon.json文件,造成了冲突,镜像加速器没有正确加载进来。输入以下命令查看Docker守护进程日志

bash 复制代码
ps aux | grep dockerd

解决方案

停止正在运行的Docker守护进程

bash 复制代码
sudo systemctl stop docker

再次查看有没有停掉

bash 复制代码
ps aux | grep dockerd

如果没有的话,可以进行手动停止

bash 复制代码
sudo kill -9 1186266 #将 1186266 替换为实际的进程 ID

然后记得重新启动Docker 守护进程,确保它使用正确的配置文件

bash 复制代码
sudo systemctl start docker

再次验证一下配置是否生效

bash 复制代码
docker info

这样的话就是配置好了

然后就可以启动啦,完美解决!

相关推荐
AI大模型2 天前
基于 Ollama 本地 LLM 大语言模型实现 ChatGPT AI 聊天系统
程序员·llm·ollama
努力还债的学术吗喽2 天前
2020 GPT3 原文 Language Models are Few-Shot Learners 精选注解
gpt·大模型·llm·gpt-3·大语言模型·few-shot·zero-shot
李大腾腾4 天前
3、JSON处理( n8n 节点用于交换信息的语言)
openai·workflow·ollama
陈佬昔没带相机4 天前
ollama 终于有UI了,但我却想弃坑了
人工智能·llm·ollama
两棵雪松4 天前
为什么RAG技术可以缓解大模型知识固话和幻觉问题
人工智能·rag
李大腾腾5 天前
2、n8n 构建你的第一个 AI Agent
openai·agent·ollama
真就死难6 天前
适用于个人开发、中小型项目的Embedding方案(配合ChromaDB)
python·embedding·rag
聚客AI6 天前
智能体协同作战:实现工具调用成功率提升47%的架构奥秘
人工智能·pytorch·机器学习·语言模型·自然语言处理·chatgpt·gpt-3
一包烟电脑面前做一天7 天前
RAG实现:.Net + Ollama + Qdrant 实现文本向量化,实现简单RAG
.net·向量数据库·ai大模型·rag·ollama·qdrant·文本分块
一包烟电脑面前做一天7 天前
MCP实现:.Net实现MCP服务端 + Ollama ,MCP服务端工具调用
.net·ai大模型·ollama·mcp·mcp服务端