Zabbix监控k8s云原生环境

传统监控的本质就是收集、分析和使用信息来观察一段时间内监控对象的运行进度,并且进行相应的决策管理的过程,监控侧重于观察特定指标。是随着云原生时代的到来,我们对监控的功能提出了更多的要求,要实现这些功能,就要实现的云原生的"可观测性"。可观测性是云原生时代必须具备的能力。目前,"可观测性"逐渐取代"监控",成为云原生技术领域最热门的话题之一。

一、zabbix新版本功能介绍

1.zabbix新功能

Zabbix 是一个基于 web 界面的分布式系统监控的企业级开源软件。可以监视各种系统与设备的参数保障服务器及设备的安全运营。Zabbix 6.8 LTS 新增 Kubernetes 监控功能,可以在 Kubernetes 系统从多个维度采集指标。我们今天就来实现 Zabbix6.0 对 K8S 的监控。

2.zabbix特点

(1)安装与配置简单。

(2)可视化 web 管理界面,

(3)免费开源。

(4)支持中文。

(5)自动发现。

(6)分布式监控。

(7)实时绘图。

3.zabbix的主要功能

(1)硬件监控。如交换机、路由器、打印机等。

(2)系统监控。如 CPU,内存,磁盘。硬盘 I0,系统负载等。

(3)服务监控。如 apache,nginx,tomcat,redis,TCP 连接数等

(4)性能监控。如网站性能,服务器性能,数据库性能。

(5)日志监控。如访问日志,错误日志。

(6)安全监控。如用户登录数,本地文件改动,passwd 文件变化

(7)网络监控。如端口,SMTP,网络使用率,网络入流量,网络出流量。

4.kubernetes 集群及组件监控模板

在新版本的 zabbix 中,提供了专门针对 kubernetes 原生架构的监控模板,用户可以直接使用这些模板对 kubernetes 的原生组件进行监控。

|---------------------------------------|------------------------------|
| 模版名称 | 备注 |
| Kubernetes API server by HTTP | K8S Apiserver 组件指标模板 |
| Kubernetes cluster state by HTTP | K8S 集群指标模板 |
| Kubernetes Controller manager by HTTP | K8S ControllerManager 组件指标模板 |
| Kubernetes kubelet by HTTP | K8S Kubelet 组件指标模板 |
| Kubernetes nodes by HTTP | K8S 集群节点发现以及状态指标模板 |
| Kubernetes Scheduler by HTTP | K8SScheduler 组件指标模板 |

5.K8s 节点基础信息指标模板

在对 kubernetes 的主机进行监控的时候,仍然可以使用 Linux by zabbix agent 模板对集群中的各个主机进行晚上的监控。

|-----------------------|-----------------|
| 模版名称 | 备注 |
| Linux by Zabbix agent | 0S Linux 系统监控模板 |

6.监控指标

在云原生环境中,我们需要监控的指标很多,具体体现在如下列表中:

|----------|--------------------------------------------------------|
| 监控名称 | 监控对象 |
| 节点基础信息 | CPU,内存,磁盘,I0,网络,system info 等 |
| 集群指标【组件】 | Api Server ,ControllerManage,SchedulerServer, kubelet等 |
| 资源对象指标 | Daemonset,Deployment,Replicaset,Endpoint,Pod等 |
| Pod 容器指标 | Container:Menory max usage,Pod CPU:User seconds等 |

7.Agentless

通过 Zabbix 内置的"HTTP agent""script"两种类型的监控项,无需安装客户端,通过访问被监控端的 API 接口即可采集监控指标数据,主要用于K8S 集群、服务组件、pod 容器状态及性能指标的采集。

二、项目列表

1.设备列表

|----------------|--------------------------------------------------|
| 主机 | IP |
| k8s-master | 192.168.10.101 |
| k8s-node01 | 192.168.10.102 |
| k8s-node02 | 192.168.10.103 |
| mariadb-10、NFS | 192.168.10.108 |
| zabbix server | 192.168.10.103(将其 pod 部署在 k8s 集群中 k8s-node02 节点) |

2.案例拓扑图

三、数据库配置

1.安装数据库

(1)关闭防火墙
[root@localhost ~]# hostnamectl set-hostname ZDB
[root@localhost ~l# bash
[root@zdb ~]# sed -i 's/SELINUX=enforcing/SELINUX=disabled/' /etc/selinux/config
[root@zdb ~]# setenforce 0
[root@zdb ~]# systemctl disable firewalld
[root@zdb ~]# systemctl stop firewalld
(2)如果系统中安装有mariadb,要写卸载

#查看是否存在 MariaDB

[root@zdb ~]# rpm -qa grep mariadb

#卸载 mariadb

[root@zdb ~]# yum remove mariadb*
(3)安装mysql
[root@zdb ~]# tar -xf mysql-8.0.31-linux-glibc2.12-x86 64.tar.xz
[root@zdb ~]# mv mysq1-8.0,31-linux-glibc2.12-x86 64 /usr/local/mysql
(4)初始化
[root@zdb ~]# mkdir /usr/local/mysql/data
[root@zdb ~]# useradd -M-s /sbin/nologin mysql
[root@zdb ~]# chown -R mysql.mysql /usr/local/mysql/data

[root@zdb ~]# /usr/local/mysql/bin/mysqld
--initialize
--user=mysql
-basedir=/usr/local/mysql
--datadir=/usr/local/mysql/data

注意:记下这里的临时密码

(5)设置配置文件
[root@zdb ~]# cat<<EOF>/etc/my.cnf
[client]
socket=/usr/local/mysql/data/mysql.sock
[mysqld]
socket=/usr/local/mysql/data/mysql.sockbind-address=0.0.0.0
skip-name-resolve
port = 3306
basedir=/usr/local/mysq1
datadir=/usr/local/mysql/data
max connections=2048
character-set-server=utf8
default-storage-engine=INNODB
max allowed packet=16M
default authentication plugin=mysql native password
[mysqld safe]
log-error=/usr/local/mysql/data/error.1og
EOF
(6)设置 mysql服务
[root@zdb ~]# ln-s -f /usr/local/mysql/bin/* /usr/local/bin/

[root@zdb ~]# cp /usr/local/mysql/support-files/mysql.server/etc/rc.d/init.d/mysqld

[root@zdb ~]# chmod +x /etc/rc.d/init.d/mysqld

[root@zdb ~]# cat<<E0F>/lib/systemd/system/mysqld.service
[Unit]
Description=mysqld
After=network.target
Service]
Type=forking
ExecStart=/etc/rc.d/init.d/mysqld startExecReload=/etc/rc.d/init.d/mysqld restartExecStop=/etc/rc.d/init.d/mysqld stopPrivateTmp=true
[Install]
WantedBy=multi-user.target
EOF

[root@zdb ~]# systemctl daemon-reload
[root@zdb ~]# systemctl enable mysqld
[root@zdb ~]# systemctl restart mysqld

2.创建 zabbix 数据库,定义 zabbix 用户

(1)登录数据库
[root@zdb ~]# mysql -uroot -p

注意:使用前面初始化得到的临时密码

(2)修改密码
mysql> alter user 'root'@'localhost' IDENTIFIED WITH mysql native password By 'zabbix';
Query OK,1 row affected(0.00 sec)
(3)创建 zabbix数据库
mySqI> CREATE DATABASE zabbix DEFAULT CHARACTER SET utf8mb4 COLLATE utf8mb4 bin;
Query Ok,1 row affected(0.0 sec)
(4)创建 zabbix用户
mysql> CREATE USER 'zabbix'@'%' IDENTIFIED BY 'zabbix';
Query OK,0 rows affected(0.01 sec)
(5)为用户授权
mySq1> GRANT ALL PRIVILEGES ON *.* To 'zabbix'@'%';
Query OK,0 rows affected(0.01 sec)
(6)刷新权限
mysql> flush privileges;
Query OK,0 rows affected(0.00 sec)

四、NFS 配置

1.创建 NFS 存储目录

[root@zdb ~]# mkdir -p /nfs

2.安装 nfs 服务

[root@zdb ~]# yum -y install nfs-utils rpcbind

3.修改配置文件

[root@zdb ~]# echo "/nfs *(rw,sync,no root squash)">>/etc/exports

4.启动服务

[root@zdb ~]# systemctlstart nfs && systemctl start rpcbind

5.设置开机启动

[root@zdb ~]# systemctl enable nfs-server&& systemctl enable rpcbind

6.在所有 k8s 节点安装 nfs

K8S 集群所有节点都要安装 nfs-utils

[root@zdb ~]# yum -y install nfs-utils

#注意,所有节点都要安装nfs-utils,否则无法使用pv

五、安装zabbix server和web

1.创建动态 PV

(1)编辑nfs 的 yaml 文件
[root@master ~]# vim storageclass-nfs.yaml 

apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: managed-nfs-storage
provisioner: fuseim.pri/ifs
parameters:
  archiveOnDelete: "true"

---
kind: ServiceAccount
apiVersion: v1
metadata:
  name: nfs-client-provisioner

---
kind: ClusterRole
apiVersion: rbac.authorization.k8s.io/v1
metadata:
  name: nfs-client-provisioner-runner
rules:
  - apiGroups: [""]
    resources: ["persistentvolumes"]
    verbs: ["get", "list", "watch", "create", "delete"]
  - apiGroups: [""]
    resources: ["persistentvolumeclaims"]
    verbs: ["get", "list", "watch", "update"]
  - apiGroups: ["storage.k8s.io"]
    resources: ["storageclasses"]
    verbs: ["get", "list", "watch"]
  - apiGroups: [""]
    resources: ["events"]
    verbs: ["create", "update", "patch"]

---
kind: ClusterRoleBinding
apiVersion: rbac.authorization.k8s.io/v1
metadata:
  name: run-nfs-client-provisioner
subjects:
  - kind: ServiceAccount
    name: nfs-client-provisioner
    namespace: default
roleRef:
  kind: ClusterRole
  name: nfs-client-provisioner-runner
  apiGroup: rbac.authorization.k8s.io


---
kind: Role
apiVersion: rbac.authorization.k8s.io/v1
metadata:
  name: leader-locking-nfs-client-provisioner
rules:
  - apiGroups: [""]
    resources: ["endpoints"]
    verbs: ["get", "list", "watch", "create", "update", "patch"]

---
kind: RoleBinding
apiVersion: rbac.authorization.k8s.io/v1
metadata:
  name: leader-locking-nfs-client-provisioner
subjects:
  - kind: ServiceAccount
    name: nfs-client-provisioner
    namespace: default
roleRef:
  kind: Role
  name: leader-locking-nfs-client-provisioner
  apiGroup: rbac.authorization.k8s.io

---
apiVersion: v1
kind: ServiceAccount
metadata:
  name: nfs-client-provisioner


---
kind: Deployment
apiVersion: apps/v1
metadata:
  name: nfs-client-provisioner
spec:
  replicas: 1
  strategy:
    type: Recreate
  selector:
    matchLabels:
      app: nfs-client-provisioner
  template:
    metadata:
      labels:
        app: nfs-client-provisioner
    spec:
      serviceAccountName: nfs-client-provisioner
      containers:
        - name: nfs-client-provisioner
          image: arawak/nfs-client-provisioner
          volumeMounts:
            - name: nfs-client-root
              mountPath: /persistentvolumes
          env:
            - name: PROVISIONER_NAME
              value: fuseim.pri/ifs
            - name: NFS_SERVER
              value: 192.168.10.108   #指定nfs地址
            - name: NFS_PATH
              value: /nfs
      volumes:
        - name: nfs-client-root
          nfs:
            server: 192.168.10.108   #指定nfs地址
            path: /nfs
(2)生成动态 PV
[root@zdb ~]# kubectl apply -f storageclass-nfs.yaml

2.安装zabbix-server

(1)编写 zabbix_server.yaml 文件
[root@master ~]# vim zabbix-server.yaml 

apiVersion: v1
kind: Namespace
metadata:
  name: zabbix
---
apiVersion: v1
kind: Service
metadata:
  name: zabbix-server
  namespace: zabbix
  labels:
    app: zabbix-server
spec:
  selector:
    app: zabbix-server
  ports:
  - name: zabbix-server
    port: 10051
    nodePort: 30051
  type: NodePort

---
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  name: zabbix-scripts
  namespace: zabbix
spec:
  storageClassName: "managed-nfs-storage"
  accessModes:
    - ReadWriteMany
  resources:
    requests:
      storage: 1Gi
---
apiVersion: apps/v1
kind: Deployment
metadata:
  labels:
    app: zabbix-server
  name: zabbix-server
  namespace: zabbix
spec:
  replicas: 1
  selector:
    matchLabels:
      app: zabbix-server
  template:
    metadata:
      labels:
        app: zabbix-server
    spec:
      nodeSelector:
        zabbix-server: "true"
      hostNetwork: true
    app: zabbix-server
  name: zabbix-server
  namespace: zabbix
spec:
  replicas: 1
  selector:
    matchLabels:
      app: zabbix-server
  template:
    metadata:
      labels:
        app: zabbix-server
    spec:
      nodeSelector:
        zabbix-server: "true"
      hostNetwork: true
      containers:
      - image: zabbix/zabbix-server-mysql:6.4.8-centos
        imagePullPolicy: IfNotPresent
        name: zabbix-server-mysql
        volumeMounts:
        - mountPath: /usr/lib/zabbix/alertscripts
          name: zabbix-scripts
        env:
        - name: DB_SERVER_HOST
          value: 192.168.10.108
        - name: DB_SERVER_PORT
          value: "3306"
        - name: MYSQL_DATABASE
          value: zabbix
        - name: MYSQL_USER
          value: zabbix
        - name: MYSQL_PASSWORD
          value: zabbix
        - name: ZBX_CACHESIZE
          value: "512M"
        - name: ZBX_HISTORYCACHESIZE
          value: "128M"
        - name: ZBX_HISTORYINDEXCACHESIZE
          value: "128M"
        - name: ZBX_TRENDCACHESIZE
          value: "128M"
        - name: ZBX_VALUECACHESIZE
          value: "256M"
        - name: ZBX_TIMEOUT
          value: "30"
        resources:
          requests:
            cpu: 500m
            memory: 500Mi
          limits:
            cpu: 1000m
            memory: 1Gi
      volumes:
        - name: zabbix-scripts
          persistentVolumeClaim:
            claimName: zabbix-scripts
(2)为node02 节点设置标签并安装 zabbix-server
[root@zdb ~l# kubectl label node k8s-node02 zabbix-server=true
[root@zdb ~]# kubectl apply -f zabbix-server.yaml
(3)检查 pod 状态
[root@master ~]# ku get pods -n zabbix
NAME                             READY   STATUS    RESTARTS   AGE
zabbix-server-5c8f769c6b-wqf6z   1/1     Running   0          16s

5. 部署 zabbix-web

(1)编写zabbix web.yaml 文件
[root@master ~]# vim zabbix-web.yaml 

apiVersion: apps/v1
kind: Deployment
metadata:
  labels:
    app: zabbix-web
  name: zabbix-web
  namespace: zabbix
spec:
  replicas: 1
  selector:
    matchLabels:
      app: zabbix-web
  template:
    metadata:
      labels:
        app: zabbix-web
    spec:
      containers:
      - image: zabbix/zabbix-web-nginx-mysql:6.4.8-centos
        imagePullPolicy: IfNotPresent
        name: zabbix-web-nginx-mysql
        env:
        - name: DB_SERVER_HOST
          value: 192.168.10.108
        - name: MYSQL_USER
          value: zabbix
        - name: MYSQL_PASSWORD
          value: zabbix
        - name: ZBX_SERVER_HOST
          value: zabbix-server
        - name: PHP_TZ
          value: Asia/shanghai
        resources:
          requests:
            cpu: 500m
            memory: 500Mi
          limits:
            cpu: 1000m
            memory: 1Gi
---
apiVersion: v1
kind: Service
metadata:
  labels:
    app: zabbix-web
  name: zabbix-web
  namespace: zabbix
spec:
  ports:
  - name: web
    port: 8080
    protocol: TCP
    targetPort: 8080
    nodePort: 30008
  selector:
    app: zabbix-web
  type: NodePort
(2)安装zabbix-web
[root@zdb ~]# kubectl apply -f zabbix-web.yaml
(3)查看 pod 状态
[root@master ~]# ku get pod -n zabbix
NAME                             READY   STATUS    RESTARTS   AGE
zabbix-server-5c8f769c6b-wqf6z   1/1     Running   0          37m
zabbix-web-7556b995f8-7plbl      1/1     Running   0          14s

6.访问zabbix的web

(1)查看svc
[root@master ~]# ku get svc -n zabbix
NAME            TYPE       CLUSTER-IP       EXTERNAL-IP   PORT(S)           AGE
zabbix-server   NodePort   10.101.229.163   <none>        10051:30051/TCP   37m
zabbix-web      NodePort   10.107.125.64    <none>        8080:30008/TCP    42s
(2)登录web

等待片刻后访问网站

http://192.168.10.101:30008/

初始账号 Admin/zabbix

六、 安装zabbix proxy和agent

官方给我们提供了全套的容器化服务部署方式,这里采用官方提供的 Helm chart 来安装。

1.安装 helm 工具(如果有 helm,忽略此步)

[root@zdb ~]# wget https://get.helm.sh/helm-v3.9.4-linux-amd64.tar.gz
[root@zdb ~]# tar zxvf helm-v3.9.4-linux-amd64.tar.gz
[root@zdb ~]# cp linux-amd64/helm /usr/local/bin/helm

2.添加仓库(已有离线包,此步可忽略)

[root@zdb ~]# helm repo add 
zabbix-chart-6.2 https://cdn.zabbix.com/zabbix/integrations/kubernetes-helm/6.2/

[root@zdb ~]# helm repo list
NAME        URL
zabbix-chart-6,0 https://cdn.zabbix.com/zabbix/integrations/kubernetes-helm/6.4

3.搜索仓库中的 helm 包(已有离线包,此步可忽略)

[root@zdb ~]# helm search repo zabbix-chart-6.2NAME
CHART         VERSION APP VERSIONDESCRIPTION
zabbix-chart-6.0/zabbix-helm-chrt    1.3 .4    6.0.21    A    Helm    chart    for
deploying Zabbix agent and proxy

4.拉取 helm 包(已有离线包,此步可忽略)

[root@zdb ~]# helm pull zabbix-chart-6.2/zabbix-helm-chrt

5.配置 values.yaml

(1)设置 zabbix-server 主机
[root@zdb ~]# tar xvf zabbix-helm-chrt-1.3.4.tgz
[root@zdb ~]# cd zabbix-helm-chrt

[root@k8s-master zabbix-helm-chrt]# vim values.yaml

备注:

IP 地址为 zabbix server 主机的地址,我们是将 zabbix server 安装到了 node02 的节点上,此节点的 IP 地址为 192.168.10.103.

7.安装Zabbix chart

(1)创建 zabbix agent 和 proxy 的命名空间
[root@master zabbix-helm-chrt]# ku create namespace monitoring
namespace/monitoring created
(2)利用 helm 部署 agent 和 proxy 组件
[root@master zabbix-helm-chrt]# ku taint node master node-role.kubernetes.io/master:NoSchedule-
node/master untainted

[root@master zabbix-helm-chrt]# helm install zabbix . --dependency-update -n monitoring
NAME: zabbix
LAST DEPLOYED: Fri Sep 13 10:19:38 2024
NAMESPACE: monitoring
STATUS: deployed
REVISION: 1
TEST SUITE: None
NOTES:
Thank you for installing zabbix-helm-chrt.

Your release is named zabbix.
Zabbix agent installed:  "zabbix/zabbix-agent2:6.4.8-centos"
Zabbix proxy installed:  "zabbix/zabbix-proxy-sqlite3:6.4.8-centos"

Annotations:
app.kubernetes.io/name: zabbix-zabbix-helm-chrt
helm.sh/chart: zabbix-helm-chrt-1.3.4
app.kubernetes.io/version: "6.4.6"
app.kubernetes.io/managed-by: Helm


Service account created: 
    zabbix-service-account

To learn more about the release, try:

  $ helm status zabbix -n monitoring
  $ helm get all zabbix -n monitoring

[root@master zabbix-helm-chrt]# ku taint node master node-role.kubernetes.io/master:NoSchedule
node/master tainted

注意:

如果需要在 master 节点上安装 agent 程序,需要将 master 节点的污点去掉,本案例的 k8s 集群使用 kubeadm 安装,默认 master 节点为污点。部署好后还可以再将 master 设置为污点。

(3)查看安装结果
[root@master zabbix-helm-chrt]# ku get pod -n monitoring
NAME                                         READY   STATUS    RESTARTS   AGE
zabbix-agent-27qmz                           1/1     Running   0          96s
zabbix-agent-457mn                           1/1     Running   0          96s
zabbix-agent-9k5t5                           1/1     Running   0          96s
zabbix-kube-state-metrics-6b588697b8-vr689   1/1     Running   0          96s
zabbix-proxy-79f5dd784d-6l9wg                1/1     Running   0          96s

备注:

如果要卸载helm 安装的程序,可以使用下面的命令:

helm uninstall zabbix -n monitoring

(4)验证安装结果

如果 proxy 和 agnet 正常安装,则会看到 zabbix server 主机已经处于正常的监控状态。

(5)修改UI 界面语言

"Administration"-->"General",找到"Default language",在下拉菜单中选择"chinese(zh CN)"然后点击下方的"update"按钮,页面即可修改为中文界面。

七、在 web 管理界面添加 proxy

1.添加 zabbix-proxy

"管理"-->"Proxy",在右上角点击"创建 Proxy"按钮,打开创建 proxy 的界面。填写信息,其中 agnet 代理程序名称是在 value.yam1 中设置的 ZBX HOSTNAME 的值,系统代理模式为主动式,代理地址不用填写。

等待一会,刷新一下页面,观察 proxy 的状态,如果不正常,Last seen 的位置会显示成红色的 Never 字样。

2.创建主机群组

创建主机群组,群组命名为k8s server

"数据采集"-->"主机群组",添加主机组。

3.节点状态监控

创建 k8s-node 主机,用于自动发现 K8S 各个节点主机

(1)添加主机模板

"数据采集"-->"主机",创建主机 k8s-nodes,用于自动发现节点。

需要配置的信息如下所示:

主机名:k8s-nodes

模板:Templates 下的Kubernetes nodes by HTTP

主机群组:K8S Server

代理程序检测:zabbix-proxy

已启用:true

(2)为主机设置宏参数

配置信息宏变量如下表所示

|-----------------------------|------------------------------------------------------------------------------------------------------|
| 宏变量 | 值 |
| {KUBE.API.ENDPOINT.URL} | [https://192.168.10.101:6443/api](https://192.168.10.101:6443/api "https://192.168.10.101:6443/api") | | {KUBE.API.TOKEN} | 你的Token值 |
| {$KUBE.NODES.ENDPOINT.NAME} | zabbix-zabbix-helm-chrt-agent |

备注:

获取 Token 值:

kubectl get secret zabbix-service-account -n monitoring -o jsonpath={.data.token} | base64 -d

获取endpoint:

kubectl get ep -n monitoring
(3)验证添加结果

添加成功后,获得 k8s 集群主机列表相关数据

4.集群服务监控

(1)添加主机模板

"数据采集"-->"主机",创建主机 k8s-cluster

关联模板"Kubernetes cluster state by HTTP",用于自动发现服务组件。

(2)设置宏变量

需要填写的宏变量如下表所示:

|-----------------------------------|------------------------------------------------------------------------------------------|
| 宏变量 | 值 |
| {KUBE.API.HOST} | 192.168.10.101 | | {KUBE.API.PORT} | 6443 |
| {KUBE.API.TOKEN} | 你的Token值 | | {KUBE.API.URL} | https://192.168.10.101:6443 |
| {KUBE.API_SERVER.PORT} | 6443 | | {KUBE.API_SERVER.SCHEME} | https |
| {KUBE.CONTROLLER_MANAGER.PORT} | 10252 | | {KUBE.CONTROLLER_MANAGER.SCHEME} | http |
| {KUBE.KUBELET.PORT} | 10250 | | {KUBE.KUBELET.SCHEME} | https |
| {KUBE.SCHEDULER.PORT} | 10251 | | {KUBE.SCHEDULER.SCHEME} | http |
| {$KUBE.STATE.ENDPOINT.NAME} | zabbix-zabbix-helm-chrt-agent |

(2)验证监控主机

注意:

因为没有使用Linux byZabbix agent 模板,所以集群服务相关的监控项,ZBx 为灰色的。只要能査看到监控信息就是成功的。如果想让其他的主机的zBx也显示为绿色,可以单独给他们添加一个Zabbixagent模板,结果如下图所示

(3)查看监控数据

"检测"-->"主机",可以看到所有被检测的主机。

点击某一个主机或组件的"最新数据",可以看到对应的具体监控到的信息。

相关推荐
怡雪~14 分钟前
K8s的水平自动扩容和缩容HPA
云原生·容器·kubernetes
史努比.16 分钟前
HPA - k8s自动伸缩机制
云原生·容器·kubernetes
运维&陈同学1 小时前
【kafka01】消息队列与微服务之Kafka详解
运维·分布式·后端·微服务·云原生·容器·架构·kafka
Jacket Li4 小时前
Kubeadm 安装 Kubernetes 高可用集群 v1.30.0
云原生·容器·kubernetes
hummhumm20 小时前
第33章 - Go语言 云原生开发
java·开发语言·后端·python·sql·云原生·golang
petaexpress20 小时前
5种常见的k8s云原生数据管理方案详解
云原生·kubernetes·k8s云原生
wenyue112121 小时前
云原生开发框架
数据库·云原生
颜淡慕潇21 小时前
【K8S系列】深入解析 Kubernetes 中的 Deployment
后端·云原生·容器·kubernetes
蚂蚁在飞-1 天前
云原生时代的轻量级反向代理Traefik
云原生·golang
Lorin 洛林1 天前
Spring Cloud Netflix 系列:Eureka 经典实战案例和底层原理解析
云原生·eureka