在Ubuntu24.04上安装多主多从的高可用Kubernetes节点

前言

因为镜像拉取失败,所以好多小伙伴说calico网络插件安装失败。之前写过CentOS7上安装多主节点的Kubernets集群,而CentOS7又停止维护了。所以借着在Ubuntu上安装多主的Kubernetes集群的机会,使用国内镜像安装calico网络插件。

视频教程地址:https://www.bilibili.com/video/BV1cus5ehE6y

环境准备

拓扑图

本次安装的为3主3从堆叠etcd集群的k8s集群,使用keepalived和haproxy作为负载均衡器。拓扑图为(图片来自官网):

安装版本

本次操作系统的版本为 Ubuntu Server 24.04 ,下载地址为:https://mirrors.aliyun.com/ubuntu-releases/noble/ubuntu-24.04-live-server-amd64.iso

安装的Kubernetes版本为:1.30 也是目前第二新的版本:

安装的容器运行时为containerd,版本号为 v1.7.20,下载地址为:https://github.com/containerd/containerd/releases/download/v1.7.20/cri-containerd-cni-1.7.20-linux-amd64.tar.gz

内网环境

我内网的网段为 172.18.0.0/16,所以我分配的IP为每台电脑分配的IP地址为:

IP地址 主机名称 配置 作用
172.18.88.80 k8s-control-plane01 2c4g k8s的第一个主节点
172.18.88.81 k8s-control-plane02 2c4g k8s的第二个主节点
172.18.88.82 k8s-control-plane03 2c4g k8s的第三个主节点
172.18.88.83 k8s-apiserver-lb01 2c2g 安装keepalived和haproxy,做主节点apiserver的负载均衡01
172.18.88.84 k8s-apiserver-lb02 2c2g 安装keepalived和haproxy,做主节点apiserver的负载均衡02
172.18.88.85 k8s-worker01 2c4g k8s的第一个工作节点
172.18.88.86 k8s-worker02 2c4g k8s的第二个工作节点
172.18.88.87 k8s-worker03 2c4g k8s的第三个工作节点

同时也需要一个虚拟IP地址来负责负载均衡主节点的apiserver,这个IP地址为:172.18.88.88

安装准备

安装ssh软件包

| 此步骤所有服务器都需要做

因为Ubuntu Server默认不支持远程连接,所以需要安装ssh软件包,并启动ssh(同时设置开机自启动),这样我们才能远程连接Ubuntu服务器。执行下面命令安装ssh:

bash 复制代码
sudo apt install -y ssh

同时执行下面命令启动ssh,并设置ssh开机自启动:

bash 复制代码
sudo systemctl enable --now ssh

如图:

接下来就可以连接所有服务器了:

关闭防火墙

| 这个步骤所有服务器都要做

因为是内网安装,所以可以直接关闭防火墙。ubuntu下执行这行命令关闭并且永久关闭:

bash 复制代码
sudo systemctl disable --now ufw

关闭Swap分区

| 这个步骤所有安装Kubernetes的节点都要执行,负载均衡节点选择性执行

临时关闭

执行下面命令可临时关闭Swap分区:

bash 复制代码
sudo swapoff -a

永久关闭

需要修改 /etc/fstab 文件注释掉带 /swap.img 的这一行:

时间同步

| 这个步骤所有的服务器都要做

设置上海时区

因为ubuntu默认时间并不是中国国内时区,所以需要执行这一行命令设置为中国上海时区:

bash 复制代码
sudo timedatectl set-timezone Asia/Shanghai

时间同步

首先需要安装ntpdate,执行下面命令安装:

bash 复制代码
sudo apt install -y ntpdate

执行下面命令进行时间同步:

bash 复制代码
sudo ntpdate ntp.aliyun.com

修改hosts配置

需要将所有服务器的服务器名和域名绑定一下,所以需要修改 /etc/hosts 文件,修改描述为:

添加内容为:

bash 复制代码
172.18.88.80 k8s-control-plane01
172.18.88.81 k8s-control-plane02
172.18.88.82 k8s-control-plane03
172.18.88.83 k8s-apiserver-lb01
172.18.88.84 k8s-apiserver-lb02
172.18.88.85 k8s-worker01
172.18.88.86 k8s-worker02
172.18.88.87 k8s-worker03

启用 IPv4 数据包转发

| 这个步骤所有k8s节点都要做

手动启用 IPv4 数据包转发:

bash 复制代码
# 设置所需的 sysctl 参数,参数在重新启动后保持不变
cat <<EOF | sudo tee /etc/sysctl.d/k8s.conf
net.ipv4.ip_forward = 1
EOF

# 应用 sysctl 参数而不重新启动
sudo sysctl --system

使用以下命令验证 net.ipv4.ip_forward 是否设置为 1:

bash 复制代码
sysctl net.ipv4.ip_forward

执行如图:

安装软件

安装容器运行时

下载Containerd

这次选用的容器运行时是 containerd,版本号为 1.7.20。可直接执行下面这行命令下载此安装包:

bash 复制代码
curl -LO https://github.com/containerd/containerd/releases/download/v1.7.20/cri-containerd-cni-1.7.20-linux-amd64.tar.gz

下载后如图:

解压压缩包

直接将这个压缩包解压到根目录就可以了,直接执行这行命令:

bash 复制代码
sudo tar -zxvf cri-containerd-cni-1.7.20-linux-amd64.tar.gz -C /

解压后可以执行这行命令查看版本号:

bash 复制代码
sudo containerd --version

可以看到安装的 1.7.20 这个版本的containerd:

修改配置文件

因为安装后默认是不自带配置文件的,所以需要创建目录并生成配置文件。执行这行命令创建目录:

bash 复制代码
sudo mkdir /etc/containerd

然后执行这行命令生成配置文件:

bash 复制代码
containerd config default | sudo tee /etc/containerd/config.toml

因为默认的pause镜像是在谷歌上拉取的,国内拉取不下来,所以需要修改 /etc/containerd/config.toml 配置文件,将pause镜像改为 registry.aliyuncs.com/google_containers/pause:3.9,如图所示:

然后需要开启cgroup,用于限制分配给进程的资源。将SystemCgroup设置为true,如图所示:

注意要保存哦。

启动containerd

执行这行命令启动containerd,并设置为开机自启动:

bash 复制代码
sudo systemctl enable --now containerd

然后可以查看启动结果:

安装Kubernetes

安装keepalived和haproxy

| 此步骤仅用在负载均衡服务器上做即可

执行下面命令安装:

bash 复制代码
sudo apt install -y keepalived haproxy

修改keepalived配置文件

配置文件地址为/etc/keepalived/keepalived.conf,keepalived配置文件主节点和从节点内容不同,配置文件如下:

conf 复制代码
! /etc/keepalived/keepalived.conf
! Configuration File for keepalived
global_defs {
    router_id LVS_DEVEL
}
vrrp_script check_apiserver {
  script "/etc/keepalived/check_apiserver.sh"
  interval 3
  weight -2
  fall 10
  rise 2
}

vrrp_instance VI_1 {
    ! 主节点为MASTER,从节点为BACKUP
    state MASTER/BACKUP
    ! 网卡接口名字
    interface ens160
    virtual_router_id 51
    ! 主节点为101,从节点为100
    priority 101/100
    authentication {
        auth_type PASS
        auth_pass XiaoHH
    }
    virtual_ipaddress {
        ! 虚拟IP地址,注意修改为你自己的地址
        172.18.88.88
    }
    track_script {
        check_apiserver
    }
}

内容:

  • state: 状态,主节点为MASTER,从节点为BACKUP
  • interface:物理接口名称,获取可执行下面命令:
bash 复制代码
ip a

获取内容如下:

  • priority:优先级,主节点为101,从节点为100
  • virtual_ipaddress:虚拟IP地址,我的为 172.18.88.88 ,注意修改为你自己规划的IP地址

所以主节点配置文件内容为:

conf 复制代码
! /etc/keepalived/keepalived.conf
! Configuration File for keepalived
global_defs {
    router_id LVS_DEVEL
}
vrrp_script check_apiserver {
  script "/etc/keepalived/check_apiserver.sh"
  interval 3
  weight -2
  fall 10
  rise 2
}

vrrp_instance VI_1 {
    state MASTER
    interface ens160
    virtual_router_id 51
    priority 101
    authentication {
        auth_type PASS
        auth_pass XiaoHH
    }
    virtual_ipaddress {
        172.18.88.88
    }
    track_script {
        check_apiserver
    }
}

从节点配置文件内容为:

conf 复制代码
! /etc/keepalived/keepalived.conf
! Configuration File for keepalived
global_defs {
    router_id LVS_DEVEL
}
vrrp_script check_apiserver {
  script "/etc/keepalived/check_apiserver.sh"
  interval 3
  weight -2
  fall 10
  rise 2
}

vrrp_instance VI_1 {
    state BACKUP
    interface ens160
    virtual_router_id 51
    priority 100
    authentication {
        auth_type PASS
        auth_pass XiaoHH
    }
    virtual_ipaddress {
        172.18.88.88
    }
    track_script {
        check_apiserver
    }
}

keepalived还需要一个健康检查脚本,脚本地址为 /etc/keepalived/check_apiserver.sh ,注意我规划的负载均衡端口为6443,如果不同注意修改为你自己的。内容为(主从节点内容一样):

bash 复制代码
#!/bin/sh

errorExit() {
    echo "*** $*" 1>&2
    exit 1
}

curl -sfk --max-time 2 https://localhost:6443/healthz -o /dev/null || errorExit "Error GET https://localhost:6443/healthz"

然后需要将这个文件添加执行权限,执行下面命令:

bash 复制代码
sudo chmod +x /etc/keepalived/check_apiserver.sh

修改haproxy配置文件

该配置文件地址为 /etc/haproxy/haproxy.cfg,需要修改到内容为:

conf 复制代码
# /etc/haproxy/haproxy.cfg
#---------------------------------------------------------------------
# Global settings
#---------------------------------------------------------------------
global
    log stdout format raw local0
    daemon

#---------------------------------------------------------------------
# common defaults that all the 'listen' and 'backend' sections will
# use if not designated in their block
#---------------------------------------------------------------------
defaults
    mode                    http
    log                     global
    option                  httplog
    option                  dontlognull
    option http-server-close
    option forwardfor       except 127.0.0.0/8
    option                  redispatch
    retries                 1
    timeout http-request    10s
    timeout queue           20s
    timeout connect         5s
    timeout client          35s
    timeout server          35s
    timeout http-keep-alive 10s
    timeout check           10s

#---------------------------------------------------------------------
# apiserver frontend which proxys to the control plane nodes
#---------------------------------------------------------------------
frontend apiserver
    # 负载均衡端口
    bind *:6443
    mode tcp
    option tcplog
    default_backend apiserverbackend

#---------------------------------------------------------------------
# round robin balancing for apiserver
#---------------------------------------------------------------------
backend apiserverbackend
    option httpchk

    http-check connect ssl
    http-check send meth GET uri /healthz
    http-check expect status 200

    mode tcp
    balance     roundrobin

    # 主节点列表,注意IP地址修改为你自己的
    server k8s-control-plane01 172.18.88.80:6443 check verify none
    server k8s-control-plane02 172.18.88.81:6443 check verify none
    server k8s-control-plane03 172.18.88.82:6443 check verify none

修改结果为:

启动keepalived和haproxy

使用下面命令启动keepalived和haproxy,并开机自启动:

bash 复制代码
sudo systemctl enable --now keepalived
sudo systemctl enable --now haproxy

看到下面结果代表启动成功:

安装kubelet kubeadm kubectl

以下指令适用于 Kubernetes 1.30。更新 apt 包索引并安装使用 Kubernetes apt 仓库所需要的包:

bash 复制代码
sudo apt-get update
# apt-transport-https 可能是一个虚拟包(dummy package);如果是的话,你可以跳过安装这个包
sudo apt-get install -y apt-transport-https ca-certificates curl gpg

下载用于 Kubernetes 软件包仓库的公共签名密钥。所有仓库都使用相同的签名密钥,因此你可以忽略URL中的版本:

bash 复制代码
# 如果 `/etc/apt/keyrings` 目录不存在,则应在 curl 命令之前创建它,请阅读下面的注释。
# sudo mkdir -p -m 755 /etc/apt/keyrings
curl -fsSL https://pkgs.k8s.io/core:/stable:/v1.30/deb/Release.key | sudo gpg --dearmor -o /etc/apt/keyrings/kubernetes-apt-keyring.gpg

添加 Kubernetes apt 仓库:

bash 复制代码
# 此操作会覆盖 /etc/apt/sources.list.d/kubernetes.list 中现存的所有配置。
echo 'deb [signed-by=/etc/apt/keyrings/kubernetes-apt-keyring.gpg] https://pkgs.k8s.io/core:/stable:/v1.30/deb/ /' | sudo tee /etc/apt/sources.list.d/kubernetes.list

更新 apt 包索引,安装 kubelet、kubeadm 和 kubectl,并锁定其版本:

bash 复制代码
sudo apt-get update
sudo apt-get install -y kubelet kubeadm kubectl
sudo apt-mark hold kubelet kubeadm kubectl

安装成功后可以查看版本:

初始化集群

首先可以只在主节点上拉取镜像,执行下面命令:

bash 复制代码
sudo kubeadm config images pull --image-repository=registry.aliyuncs.com/google_containers --kubernetes-version=v1.30.4

然后在任意一台主节点上执行下面命令进行初始化:

bash 复制代码
sudo kubeadm init \
--apiserver-advertise-address=172.18.88.80 \
--control-plane-endpoint="172.18.88.88:6443" \
--upload-certs \
--image-repository=registry.aliyuncs.com/google_containers \
--kubernetes-version=v1.30.4 \
--service-cidr=10.96.0.0/12 \
--pod-network-cidr=10.244.0.0/16 \
--cri-socket=unix:///run/containerd/containerd.sock

参数解释:

  • --apiserver-advertise-address:执行这行命令的主节点IP地址,注意修改为你自己的
  • --control-plane-endpoint:负载均衡apiserver的虚拟IP地址和端口,注意修改为自己的
  • --upload-certs:标志用来将在所有控制平面实例之间的共享证书上传到集群
  • --image-repository:因为官方镜像在谷歌,国内拉取不下来,所以使用国内的阿里云镜像
  • --kubernetes-version:Kubernetes的版本号
  • --service-cidr:Service的网段地址
  • --pod-network-cidr:pod的网段地址
  • --cri-socket:标志使用containerd作为容器运行时

执行后初始化成功如图:

在初始化成功的主节点本地执行:

bash 复制代码
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

其余主节点执行这条命了加入主节点集群,注意后面加上了 --cri-socket=unix:///run/containerd/containerd.sock 来使用containerd作为容器运行时(注意复制你自己的):

bash 复制代码
sudo kubeadm join 172.18.88.88:6443 --token xsp48h.uzkxsr9bd58vmey2 \
--discovery-token-ca-cert-hash sha256:2ed5ad71a9adfcc2f4fb7e4c3b3f5bca53fae29bd21d4788820ed34eddf27049 \
--control-plane --certificate-key e0472e957c5a54cea8eb41aefc47abe52c701ed3f65a1cc17c524b34163404a8 \
--cri-socket=unix:///run/containerd/containerd.sock

执行成功后可以看到提示,同样圈起来命令需要本地执行一下:

然后可以执行如下命令查看已经加入的节点:

bash 复制代码
kubectl get nodes -o wide

可以看到三个主节点加入成功:

然后在所有工作节点下执行下面命令,以加入工作节点。注意同样添加了 --cri-socket=unix:///run/containerd/containerd.sock 参数(注意复制你自己的):

bash 复制代码
sudo kubeadm join 172.18.88.88:6443 --token xsp48h.uzkxsr9bd58vmey2 \
--discovery-token-ca-cert-hash sha256:2ed5ad71a9adfcc2f4fb7e4c3b3f5bca53fae29bd21d4788820ed34eddf27049 \
--cri-socket=unix:///run/containerd/containerd.sock

执行后可以看到加入成功:

安装calico网络插件

calico网络插件的地址为:https://docs.tigera.io/calico/latest/getting-started/kubernetes/quickstart

我事先将镜像做好了,并且提交到了阿里云。安装分两种情况安装calico:

如果你的节点数量小于等于50,执行下面这行命令安装calico:

bash 复制代码
kubectl create -f https://raw.githubusercontent.com/xiaohh-me/kubernetes-yaml/main/network/calico/calico-v3.28.1.yaml

如果你的节点数量大于50个,执行这行命令进行安装calico:

bash 复制代码
kubectl create -f https://raw.githubusercontent.com/xiaohh-me/kubernetes-yaml/main/network/calico/calico-typha-v3.28.1.yaml

根据你的的节点数量进行选择性安装,因为我的节点数量包括主节点只有六个,所以选择上面那行命令。执行结果如图:

可以执行下面命令查看是否安装成功:

bash 复制代码
kubectl get pod -o wide -n kube-system

当这些calico的pod都为执行状态的时候则代表calico安装完成:

测试部署一个应用程序

将安装一个nginx应用程序来测试这个kubernetes是否搭建成功,执行下面命令:

bash 复制代码
kubectl apply -f https://raw.githubusercontent.com/xiaohh-me/kubernetes-yaml/main/deployment/nginx/nginx-deploy-1.25.5.yaml

执行这行命令可以看结果:

访问任意一个节点的30080端口可以看到nginx访问成功:

Kubernetes多主节点的集群就安装完成了,你们也可以参考我之前的文章或视频,了解包括metallb,ingress等组件的安装,使自己的kubernetes集群更加完善。

相关推荐
为什么这亚子29 分钟前
九、Go语言快速入门之map
运维·开发语言·后端·算法·云原生·golang·云计算
ZHOU西口2 小时前
微服务实战系列之玩转Docker(十八)
分布式·docker·云原生·架构·数据安全·etcd·rbac
牛角上的男孩3 小时前
Istio Gateway发布服务
云原生·gateway·istio
JuiceFS4 小时前
好未来:多云环境下基于 JuiceFS 建设低运维模型仓库
运维·云原生
景天科技苑5 小时前
【云原生开发】K8S多集群资源管理平台架构设计
云原生·容器·kubernetes·k8s·云原生开发·k8s管理系统
wclass-zhengge6 小时前
K8S篇(基本介绍)
云原生·容器·kubernetes
颜淡慕潇6 小时前
【K8S问题系列 |1 】Kubernetes 中 NodePort 类型的 Service 无法访问【已解决】
后端·云原生·容器·kubernetes·问题解决
川石课堂软件测试8 小时前
性能测试|docker容器下搭建JMeter+Grafana+Influxdb监控可视化平台
运维·javascript·深度学习·jmeter·docker·容器·grafana
昌sit!14 小时前
K8S node节点没有相应的pod镜像运行故障处理办法
云原生·容器·kubernetes
A ?Charis17 小时前
Gitlab-runner running on Kubernetes - hostAliases
容器·kubernetes·gitlab