利用Kubernetes原生特性实现简单的灰度发布和蓝绿发布

部分借鉴地址: https://support.huaweicloud.com/intl/zh-cn/bestpractice-cce/cce_bestpractice_10002.html
1.原理介绍

用户通常使用无状态负载 Deployment、有状态负载 StatefulSet等Kubernetes对象来部署业务,每个工作负载管理一组Pod。以Deployment为例,示意图如下:

通常还会为每个工作负载创建对应的Service,Service使用selector来匹配后端Pod,其他服务或者集群外部通过访问Service即可访问到后端Pod提供的服务.

2.灰度发布原理

以Deployment为例,用户通常会为每个Deployment创建一个Service,但Kubernetes并未限制Service需与Deployment一一对应。Service通过selector匹配后端Pod,若不同Deployment的Pod被同一selector选中,即可实现一个Service对应多个版本Deployment。调整不同版本Deployment的副本数,即可调整不同版本服务的权重,实现灰度发布。示意图如下

3.蓝绿发布原理

以Deployment为例,集群中已部署两个不同版本的Deployment,其Pod拥有共同的label。但有一个label值不同,用于区分不同的版本。Service使用selector选中了其中一个版本的Deployment的Pod,此时通过修改Service的selector中决定服务版本的label的值来改变Service后端对应的Pod,即可实现让服务从一个版本直接切换到另一个版本。示意图如下:

4.灰度发布yaml配置

登录后复制

yaml 复制代码
cat> ./k8s-grayscale-all.yaml >> EOF
---
apiVersion: apps/v1
kind: Deployment
metadata:
  name: nginx-v1
spec:
  replicas: 1
  selector:
    matchLabels:
      app: nginx
      version: v1
  template:
    metadata:
      labels:
        version: v1
        app: nginx
    spec:
      containers:
      - name: nginx
        image: docker.io/nginx:latest
        ports:
        - containerPort: 80
---
apiVersion: apps/v1
kind: Deployment
metadata:
  name: nginx-v2
spec:
  replicas: 1
  selector:
    matchLabels:
      app: nginx
      version: v2
  template:
    metadata:
      labels:
        app: nginx
        version: v2
    spec:
      containers:
      - name: nginx
        image: docker.io/nginx:latest
        ports:
        - containerPort: 80

---
apiVersion: v1
kind: Service
metadata:
  name: nginx-svc
  labels:
    app: nginx
spec:
  selector:
    app: nginx
  ports:
  - name: nginx-port
    protocol: TCP
    port: 80
    targetPort: 80
  type: LoadBalancer
EOF

查看ep 资源对象和部署服务名称

5.测试验证-灰度发布
6.蓝绿发布YAMl配置

登录后复制

yaml 复制代码
cat> ./k8s-blue-green-all.yaml >> EOF
---
apiVersion: apps/v1
kind: Deployment
metadata:
  name: nginx-v1
spec:
  replicas: 1
  selector:
    matchLabels:
      app: nginx
      version: v1
  template:
    metadata:
      labels:
        version: v1
        app: nginx
    spec:
      containers:
      - name: nginx
        image: docker.io/nginx:latest
        ports:
        - containerPort: 80
---
apiVersion: apps/v1
kind: Deployment
metadata:
  name: nginx-v2
spec:
  replicas: 1
  selector:
    matchLabels:
      app: nginx
      version: v2
  template:
    metadata:
      labels:
        app: nginx
        version: v2
    spec:
      containers:
      - name: nginx
        image: docker.io/nginx:latest
        ports:
        - containerPort: 80

--- 
#应用流量转发至 nginnx-v1 应用
apiVersion: v1
kind: Service
metadata:
  name: nginx-svc
  labels:
    app: nginx
spec:
  selector:
    app: nginx
    version: v1
  ports:
  - name: nginx-port
    protocol: TCP
    port: 80
    targetPort: 80
  type: LoadBalancer
EOF
7.测试验证-绿色版本应用 v1
8.测试验证-蓝色版本应用 v2

登录后复制

bash 复制代码
#切换至蓝色v2 版本应用命令

[root@rocklinux-k8s-master]# kubectl patch service nginx-svc -p '{"spec":{"selector":{"version":"v2"}}}' -n demo
service/nginx-svc patched

v2切换

切换v1 和 v2 结果对比

9.发布蓝绿切换命令

登录后复制

bash 复制代码
#切换至v1 版本
kubectl patch service nginx-svc -p '{"spec":{"selector":{"version":"v1"}}}' -n demo
service/nginx-svc patched

#切换至v2 版本
kubectl patch service nginx-svc -p '{"spec":{"selector":{"version":"v2"}}}' -n demo
service/nginx-svc patched
10.补充自建集群SVC LoadBalancer

细心的博友会发现自建集群中无法直接使用 LoadBalancer 但是开源社区中

metallb 项目可以提供 负载均衡的类型的svc 具体部署如下

集群版本: v1.28.2

操作系统: Rocky Linux release 9.4 (Blue Onyx)

内核版本: 5.14.0-427.13.1.el9_4.x86_64

metallb 版本: v0.14.8
登录后复制

bash 复制代码
# metallb-native.yaml 部署yaml 文件
kubectl apply -f  https://raw.githubusercontent.com/metallb/metallb/v0.14.8/config/manifests/metallb-native.yaml
kubectl apply -f  https://raw.githubusercontent.com/metallb/metallb/v0.14.8/config/manifests/metallb-frr.yaml

修改网络配置文件
登录后复制

yaml 复制代码
cat> IPAddressPool.yaml >> EOF
apiVersion: metallb.io/v1beta1
kind: IPAddressPool
metadata:
  name: first-pool
  namespace: metallb-system
spec:
  addresses:
  - 192.168.0.200-192.168.0.250
EOF

cat > L2Advertisement.yaml >> EOF
apiVersion: metallb.io/v1beta1
kind: L2Advertisement
metadata:
  name: l2-lb-example
  namespace: metallb-system
spec:
  ipAddressPools:
  - first-pool
EOF

kubectl create -f L2Advertisement.yaml
kubectl create -f IPAddressPool.yaml
相关推荐
丶21369 分钟前
【云原生】云原生后端详解:架构与实践
后端·云原生·架构
小森饭28 分钟前
Kubernetes运行大数据组件-运行hive
大数据·hive·云原生·kubernetes
白总Server1 小时前
孤岛架构与微服务架构区别
java·开发语言·后端·微服务·云原生·架构·scala
丶21363 小时前
【云原生】云原生后端:监控与观察性
后端·云原生·架构
pyliumy3 小时前
docker的安装配置与基本简单命令
运维·docker·容器
winkee3 小时前
Skopeo 工具介绍
docker·容器·devops
CopyLower3 小时前
ZooKeeper的应用场景:深入探讨分布式系统中的多样化应用
分布式·zookeeper·云原生
test12805 小时前
局域网 docker pull 使用代理拉取镜像
docker·容器·代理·docker pull·http_proxy
天幕繁星5 小时前
docker占用磁盘过多问题
docker·容器
bala55696 小时前
Docker-在Centos中部署Shell脚本获取镜像并构建容器
linux·阿里云·docker·容器·centos·maven