kubernetes 高可用集群

目录

一、haproxy负载均衡

二、pacemaker高可用

三、部署control-plane

[四、部署worker node](#四、部署worker node)


实验环境

|--------|---------------|-------------------|
| 主机名 | IP | 角色 |
| docker | 192.168.67.10 | harbor |
| k8s1 | 192.168.67.11 | control-plane |
| k8s2 | 192.168.67.12 | control-plane |
| k8s3 | 192.168.67.13 | control-plane |
| k8s4 | 192.168.56.14 | haproxy,pacemaker |
| k8s5 | 192.168.67.15 | haproxy,pacemaker |
| k8s6 | 192.168.67.16 | worker node |

一、haproxy负载均衡

配置软件仓库

vim yyl.repo


#高可用的
[HighAvailability]
name=rhel7.6 HighAvailability
baseurl=file:///media/addons/HighAvailability
gpgcheck=0

下载软件

yum install -y haproxy net-tools

编辑配置文件

测试:

测试成功后关闭服务,不要设置自启动

二、pacemaker高可用

同步配置文件

scp yyl.repo  k8s5:/etc/yum.repos.d/

安装软件

yum install  -y pacemaker pcs psmisc policycoreutils-python
两个节点都要


启动pcsd服务 设置用户密码 节点认证

systemctl enable --now pcsd.service
ssh k8s5 systemctl enable --now pcsd.service

echo westos | passwd --stdin hacluster
ssh k8s6 'echo westos | passwd --stdin hacluster'


pcs cluster auth k8s4 k8s5

创建集群

pcs cluster setup --name mycluster k8s5 k8s4

启动集群

pcs cluster start --all

集群自启动

pcs cluster enable --all


禁用stonith

pcs property set stonith-enabled=false

添加集群资源

pcs resource create vip ocf:heartbeat:IPaddr2 ip=192.168.67.200 op monitor interval=30s
pcs resource create haproxy systemd:haproxy op  monitor interval=60s
pcs resource group add hagroup vip haproxy

测试

pcs node standby

资源全部迁移到k8s5 恢复:

pcs node  unstandby

测试:

三、部署control-plane

k8s1、k8s2、k8s3在配置前需要重置节点

kubeadm reset
kubeadm reset  --cri-socket unix:///var/run/cri-dockerd.sock
kubeadm reset  --cri-socket unix:///var/run/cri-dockerd.sock

cd /etc/cni/net.d  初始化需要清除
rm -fr *

reboot  可以使iptable 和 ipvs 策略被自动清除

加载内核模块

modprobe overlay
modprobe br_netfilter


生成初始化配置文件

kubeadm config print init-defaults > kubeadm-init.yaml

修改配置

初始化集群

kubeadm init   --config kubeadm-init.yaml --upload-certs

部署网络组件

kubectl apply -f calico.yaml


添加其它control-plane节点

kubeadm join 192.168.56.200:6443 --token abcdef.0123456789abcdef         --discovery-token-ca-cert-hash sha256:51184d632ecb2f9e6c7f82b064e07c01974924d359eb98035aae7ce98e56d60d         --control-plane --certificate-key cb28e3d92a419945a34a6a2d1db49c80fbf5d8275c28e40f8c7e0450a9ad8fb5

四、部署worker node

新添加的节点需要初始化配置

  1. 禁用selinux、firewalld、swap分区

  2. 部署containerd

  3. 安装kubelet、kubeadm、kubectl

  4. 配置内核模块
    禁用swap

    swapoff -a
    vim /etc/fstab


安装containerd、kubelet、kubeadm、kubectl 从其它节点拷贝repo文件

scp k8s.repo docker.repo  k8s6:/etc/yum.repos.d/
yum install -y containerd.io kubeadm-1.24.17-0 kubelet-1.24.17-0 kubectl-1.24.17-0

自启动服务

systemctl enable --now containerd
systemctl enable --now kubelet

拷贝containerd的配置文件

scp -r * k8s6:/etc/containerd/

重启服务:

systemctl  restart containerd
crictl config runtime-endpoint unix:///run/containerd/containerd.sock
crictl pull myapp:v1

配置内核模块:

cd /etc/sysctl.d/
scp docker.conf k8s7:/etc/sysctl.d/

modprobe overlay
modprobe br_netfilter
sysctl --system

添加worker节点

kubeadm join 192.168.56.200:6443 --token abcdef.0123456789abcdef         --discovery-token-ca-cert-hash sha256:8845bd441093179e02b51a239075a64b5386085bb702c11397c21abebb132d25

测试:

相关推荐
景天科技苑35 分钟前
【云原生开发】K8S多集群资源管理平台架构设计
云原生·容器·kubernetes·k8s·云原生开发·k8s管理系统
wclass-zhengge1 小时前
K8S篇(基本介绍)
云原生·容器·kubernetes
颜淡慕潇1 小时前
【K8S问题系列 |1 】Kubernetes 中 NodePort 类型的 Service 无法访问【已解决】
后端·云原生·容器·kubernetes·问题解决
川石课堂软件测试3 小时前
性能测试|docker容器下搭建JMeter+Grafana+Influxdb监控可视化平台
运维·javascript·深度学习·jmeter·docker·容器·grafana
昌sit!9 小时前
K8S node节点没有相应的pod镜像运行故障处理办法
云原生·容器·kubernetes
A ?Charis12 小时前
Gitlab-runner running on Kubernetes - hostAliases
容器·kubernetes·gitlab
wclass-zhengge13 小时前
Docker篇(Docker Compose)
运维·docker·容器
北漂IT民工_程序员_ZG13 小时前
k8s集群安装(minikube)
云原生·容器·kubernetes
梦魇梦狸º16 小时前
腾讯轻量云服务器docker拉取不到镜像的问题:拉取超时
docker·容器·github
南猿北者19 小时前
docker镜像仓库常用命令
运维·docker·容器