k8s.1.28.x空间预留,过期镜像删除

CPU和内存预留配置

复制代码
使用 kubelet 的配置文件中指定 kube-reserved 字段
在 kubeadm init 命令的参数文件中指定 kube-reserved 字段
使用 kubelet 的配置文件

在 kubelet 的配置文件中,可以通过指定 kube-reserved 字段来预留节点的空间。kube-reserved 字段是一个对象,它可以指定节点预留的内存和 CPU。
例如,以下 kubelet 的配置文件将预留 2G 内存和 2000m CPU:
复制代码
kube-reserved:
  memory: 2Gi
  cpu: 2000m

以下 kubeadm init 命令的参数文件将预留 2G 内存和 2000m CPU:

yaml 复制代码
apiVersion: kubeadm.k8s.io/v1beta1
kind: InitConfiguration
imageRepository: k8s.gcr.io
kubernetesVersion: v1.28.0
imagePullPolicy: IfNotPresent
nodeRegistration:
  name: node1
  criSocket: /var/run/dockershim.sock
  taints:
    - key: node-role.kubernetes.io/master
      effect: NoSchedule
  kubeletExtraArgs:
    image-gc-high-threshold: 80
    image-gc-low-threshold: 60
    deployments.replicas: 3
    kube-reserved:
      memory: 2Gi
      cpu: 2000m

通过这种方式,您可以根据需要预留节点的空间。

  • 注意事项

  • kube-reserved 字段指定的空间将从节点的总资源中扣除。

  • kube-reserved 字段仅适用于节点的系统进程和 Kubernetes 系统组件。

  • 如果您使用 Deployment 或 DaemonSet 来创建 Pod,您可以通过指定 Pod 的资源限制来限制 Pod 可以使用的资源。

    以下是一些建议:

  • 根据您的实际需求来设置 kube-reserved 字段的值。

  • 不要将 kube-reserved 字段的值设置得太高,否则可能会影响节点的性能。

过期镜像删除

--image-gc-high-threshold 参数指定了镜像使用率达到多少时,kubelet 开始清理旧镜像。比如,设置为 80%,表示当集群中镜像使用率达到 80% 时,kubelet 将开始清理旧镜像。
--image-gc-low-threshold 参数指定了镜像使用率达到多少时,kubelet 停止清理旧镜像。比如,设置为 60%,表示当集群中镜像使用率达到 60% 时,kubelet 将停止清理旧镜像.
举个例子,假设集群中总共有 100 个镜像,其中 80 个镜像正在使用,20 个镜像没有使用。如果将 --image-gc-high-threshold 参数设置为 80%,那么当镜像使用率达到 80%,也就是 80 个镜像正在使用时,kubelet 将开始清理旧镜像。
  • 此时,kubelet 将根据一定的策略来选择要清理的镜像。比如,kubelet 可以选择最早创建的镜像,也可以选择最少使用的镜像。

  • 如果将 --image-gc-low-threshold 参数设置为 60%,那么当镜像使用率达到 60%,也就是 60 个镜像正在使用时,kubelet 将停止清理旧镜像。

  • 此时,kubelet 将不再清理镜像,即使集群中还有未使用的镜像。

  • 在实际应用中,您可以根据集群的实际情况来调整 --image-gc-high-threshold 和 --image-gc-low-threshold 参数的值。

以下是一些建议:
  • --image-gc-high-threshold 参数的值应设置为集群中镜像使用率的阈值。如果设置的值过高,可能会导致集群中存储大量旧镜像,从而占用大量磁盘空间。
  • --image-gc-low-threshold 参数的值应设置为集群中镜像使用率的安全阈值。如果设置的值过低,可能会导致 kubelet 频繁清理镜像,从而影响集群的性能。
yaml 复制代码
apiVersion: kubeadm.k8s.io/v1beta1
kind: InitConfiguration
imageRepository: k8s.gcr.io
kubernetesVersion: v1.28.0
imagePullPolicy: IfNotPresent
nodeRegistration:
  name: node1
  criSocket: /var/run/dockershim.sock
  taints:
    - key: node-role.kubernetes.io/master
      effect: NoSchedule
  kubeletExtraArgs:
    image-gc-high-threshold: 80
    image-gc-low-threshold: 60
   max-pods: 230
K8S 每个节点的默认 pods 数量是 110。也就是说,每个节点可以同时运行 110 个 pods。
shell 复制代码
max-pods: 230 #调整为230个
相关推荐
AKAMAI5 小时前
跳过复杂环节:Akamai应用平台让Kubernetes生产就绪——现已正式发布
人工智能·云原生·云计算
阿里云云原生11 小时前
不重启、不重写、不停机:SLS 软删除如何实现真正的“无感数据急救”?
云原生
Serverless社区1 天前
函数计算的云上计费演进:从请求驱动到价值驱动,助力企业走向 AI 时代
阿里云·云原生·serverless
资源开发与学习2 天前
Kubernetes集群核心概念 Service
kubernetes
阿里云云原生2 天前
【云栖大会】AI原生、AI可观测、AI Serverless、AI中间件,4场论坛20+议题公布!
云原生
容器魔方2 天前
Bloomberg 正式加入 Karmada 用户组!
云原生·容器·云计算
muyun28003 天前
Docker 下部署 Elasticsearch 8 并集成 Kibana 和 IK 分词器
elasticsearch·docker·容器
Nazi63 天前
k8s的dashboard
云原生·容器·kubernetes
傻傻虎虎3 天前
【Docker】常用帮忙、镜像、容器、其他命令合集(2)
运维·docker·容器
是小崔啊3 天前
叩丁狼K8s - 概念篇
云原生·容器·kubernetes