k8s.gcr.io/pause:3.2镜像丢失解决

文章目录


前言

使用Kubernetes(k8s)时遇到了镜像拉取的问题,导致Pod沙盒创建失败。错误显示在尝试从k8s.gcr.io拉取pause:3.2镜像时遇到了超时问题,这通常是因为网络问题或者镜像仓库服务器的问题。

错误信息

Failed to create pod sandbox: rpc error: code = Unknown desc = failed to get sandbox image "k8s.gcr.io/pause:3.2": failed to pull image "k8s.gcr.io/pause:3.2": failed to pull and unpack image "k8s.gcr.io/pause:3.2": failed to resolve reference "k8s.gcr.io/pause:3.2": failed to do request: Head "https://k8s.gcr.io/v2/pause/manifests/3.2": dial tcp 74.125.204.82:443: i/o timeout

临时解决

拉取镜像,重新tag,国内可以使用阿里云的

bash 复制代码
# 如果你的k8s使用的事docker客户端
docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.2
docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.2 k8s.gcr.io/pause:3.2 
 
# 如果使用containerd自带客户端
crictl pull registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.2
ctr -n k8s.io i tag registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.2 k8s.gcr.io/pause:3.2

推荐解决

one

如果您的Kubernetes服务无法重启,您可以尝试创建一个DaemonSet来替换使用的镜像。如您所示的YAML配置,您可以定义一个DaemonSet,将Pod的容器镜像更改为可访问的阿里云镜像。这种方法不需要重启Kubernetes服务,而是一次性更新所有节点的Pod

yaml 复制代码
apiVersion: apps/v1
kind: DaemonSet
metadata:
  name: example-daemonset
  namespace: default
spec:
  selector:
    matchLabels:
      app: example
  template:
    metadata:
      labels:
        app: example
    spec:
      containers:
      - image: k8s.gcr.io/pause:3.2
        imagePullPolicy: IfNotPresent
        name: example-container
        resources: {}
        terminationMessagePath: /dev/termination-log
        terminationMessagePolicy: File
      dnsPolicy: ClusterFirst
      restartPolicy: Always
      schedulerName: default-scheduler
      securityContext: {}
      terminationGracePeriodSeconds: 30
  updateStrategy:
    rollingUpdate:
      maxSurge: 0
      maxUnavailable: 1
    type: RollingUpdate

two

如果您的Kubernetes服务可以重启,您可以修改Kubelet的启动参数,以直接使用阿里云的镜像。这涉及到编辑Kubelet的配置文件,并更改Pod基础设施容器的镜像路径。然后重启Kubelet服务以应用更改。

在执行这些操作时,请注意:

  • 在生产环境中操作前,请确保您理解每个命令的影响
  • 备份当前的配置和状态,以防需要回滚或恢复
  • 确保遵循您组织的安全和配置管理策略。

最后,添加注解可以帮助其他维护者或团队成员理解配置的原因和更改的上下文,这在团队合作和Kubernetes集群维护中是一个好习惯。

bash 复制代码
# 查看 kubelet 配置
systemctl status kubelet
 
cd /var/lib/kubelet/
cp kubeadm-flags.env kubeadm-flags.env.ori
 
# 把 k8s.gcr.io/pause:3.2 改成 registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.2
 
cat /var/lib/kubelet/kubeadm-flags.env
 
KUBELET_KUBEADM_ARGS="--cgroup-driver=systemd --network-plugin=cni --pod-infra-container-image=registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.2"
 
# 重启 kubelet 服务
systemctl daemon-reload
systemctl restart kubelet
相关推荐
YCyjs1 小时前
K8S群集调度二
云原生·容器·kubernetes
Hoxy.R1 小时前
K8s小白入门
云原生·容器·kubernetes
€☞扫地僧☜€4 小时前
docker 拉取MySQL8.0镜像以及安装
运维·数据库·docker·容器
全能全知者6 小时前
docker快速安装与配置mongoDB
mongodb·docker·容器
为什么这亚子7 小时前
九、Go语言快速入门之map
运维·开发语言·后端·算法·云原生·golang·云计算
ZHOU西口9 小时前
微服务实战系列之玩转Docker(十八)
分布式·docker·云原生·架构·数据安全·etcd·rbac
牛角上的男孩10 小时前
Istio Gateway发布服务
云原生·gateway·istio
JuiceFS11 小时前
好未来:多云环境下基于 JuiceFS 建设低运维模型仓库
运维·云原生
景天科技苑12 小时前
【云原生开发】K8S多集群资源管理平台架构设计
云原生·容器·kubernetes·k8s·云原生开发·k8s管理系统
wclass-zhengge12 小时前
K8S篇(基本介绍)
云原生·容器·kubernetes