k8s 1.35 使用kubeadm部署高可用集群

目录

  • [1. kubeadm、kubelet、kubectl安装](#1. kubeadm、kubelet、kubectl安装)
  • [2. 安装containerd](#2. 安装containerd)
    • [2.1 解压安装包,设置systemd](#2.1 解压安装包,设置systemd)
    • [2.2 安装runc](#2.2 安装runc)
    • [2.3 安装CNI插件](#2.3 安装CNI插件)
  • [3. 使用cgroup v2](#3. 使用cgroup v2)
  • [4. 集群部署](#4. 集群部署)
    • [4.1 第一个master节点](#4.1 第一个master节点)
    • [4.2 增加控制面节点](#4.2 增加控制面节点)
    • [4.3 calico安装](#4.3 calico安装)
  • 注意点

1. kubeadm、kubelet、kubectl安装

2. 安装containerd

2.1 解压安装包,设置systemd

参考https://github.com/containerd/containerd/blob/main/docs/getting-started.md

  1. 先把https://github.com/containerd/containerd/releases,找一个最新的安装包解压到本地,然后解压
shell 复制代码
tar Cxzvf /usr/local/ containerd-2.2.1-linux-amd64.tar.gz
bin/
bin/containerd-shim-runc-v2
bin/containerd-shim
bin/ctr
bin/containerd-shim-runc-v1
bin/containerd
bin/containerd-stress
shell 复制代码
systemctl daemon-reload
systemctl enable --now containerd

2.2 安装runc

  • 上面官方文档里有写
shell 复制代码
install -m 755 runc.amd64 /usr/local/sbin/runc

2.3 安装CNI插件

  • 命令如下
shell 复制代码
mkdir -p /opt/cni/bin
tar Cxzvf /opt/cni/bin cni-plugins-linux-amd64-v1.9.0.tgz

结果

复制代码
./
./bandwidth
./host-device
./LICENSE
./loopback
./ptp
./vrf
./tuning
./host-local
./static
./tap
./bridge
./README.md
./macvlan
./firewall
./dummy
./sbr
./ipvlan
./portmap
./dhcp
./vlan

3. 使用cgroup v2

  • /etc/containerd/config.toml文件内容如下
toml 复制代码
[plugins.'io.containerd.cri.v1.runtime'.containerd.runtimes.runc]
  [plugins.'io.containerd.cri.v1.runtime'.containerd.runtimes.runc.options]
    SystemdCgroup = true
  • 由于cgroups v1 support is deprecated and will be removed in a future release. Please migrate to cgroups v2. To explicitly enable cgroups v1 support for kubelet v1.35 or newer, you must set the kubelet configuration option 'FailCgroupV1' to 'false'. You must also explicitly skip this validation. For more information, see https://git.k8s.io/enhancements/keps/sig-node/5573-remove-cgroup-v1,我们需要把启用cgroups v2,文档参考https://kubernetes.io/zh-cn/docs/concepts/architecture/cgroups/
  • 首先使用stat -fc %T /sys/fs/cgroup/,看Linux系统当前使用的cgroup版本,对于CGroup v1,输出tmpfs;对于CGroup v2输出cgroup2fs

我当前的输出是tmpfs

  • 需要在/etc/default/grubGRUB_CMDLINE_LINUX中添加systemd.unified_cgroup_hierarchy=1,然后执行下面的命令(不同发行版不一样)
shell 复制代码
# Debian/Ubuntu(默认已安装)
sudo update-grub

# CentOS/RHEL 7+
sudo grub2-mkconfig -o /boot/grub2/grub.cfg

# Fedora(UEFI模式)
sudo grub2-mkconfig -o /boot/efi/EFI/fedora/grub.cfg

# Arch Linux
sudo grub-mkconfig -o /boot/grub/grub.cfg
  • 重启操作系统
shell 复制代码
sudo reboot

再次执行stat -fc %T /sys/fs/cgroup/,发现输出变成cgroup2fs

4. 集群部署

4.1 第一个master节点

  • 先看下文章最后的 注意点1
  • 使用下面的命令。control-plane-endpoint是负载均衡器的访问地址,可以暂时使用某个master节点
shell 复制代码
kubeadm init \
  --control-plane-endpoint=11.50.138.91:6443 \
  --image-repository=registry.cn-hangzhou.aliyuncs.com/google_containers \
  --kubernetes-version=v1.35.0 \
  --pod-network-cidr=10.244.0.0/16

等待组件都就绪,然后执行

shell 复制代码
 mkdir -p $HOME/.kube
 sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
 sudo chown $(id -u):$(id -g) $HOME/.kube/config

 export KUBECONFIG=/etc/kubernetes/admin.conf

然后可以使用kubectl命令了

4.2 增加控制面节点

  • 在第一个master节点上生成认证密钥
shell 复制代码
kubeadm init phase upload-certs --upload-certs

结果如下

复制代码
[root@mengshi3-apack-node01 ~]# kubeadm init phase upload-certs --upload-certs
[upload-certs] Storing the certificates in Secret "kubeadm-certs" in the "kube-system" Namespace
[upload-certs] Using certificate key:
2921c3475df1449711486d503a7202f5d2a97126f416dd4627c35a52faf5db0d

然后生成添加控制面节点的命令

shell 复制代码
kubeadm token create --print-join-command --certificate-key 2921c3475df1449711486d503a7202f5d2a97126f416dd4627c35a52faf5db0d

会生成下面的命令。在需要加进来的节点机器上执行,即可把节点作为控制面节点加入k8s集群

复制代码
kubeadm join 11.50.138.91:6443 --token wicgtt.nc2z5fj7cqa2ypah --discovery-token-ca-cert-hash sha256:2ffcfac3c76d84c0aceff773e9ec8a7a59155f721eeaaa024df1f055abfe4c96 --control-plane --certificate-key 2921c3475df1449711486d503a7202f5d2a97126f416dd4627c35a52faf5db0d

4.3 calico安装

  • 上面的组件装完之后,节点状态是NotReady,这时候,需要安装网络插件以支持集群的节点间网络通信,常见的插件有flannelcalico,对于简单的小集群可以使用flannel,这里我们选择功能更强的calico
  • https://raw.githubusercontent.com/projectcalico/calico/v3.27.0/manifests/calico.yaml这是calicoyaml文件,可以修改镜像地址之后apply到集群。安装完了之后,观察组件状态是否全部Running
  • 然后Node Ready,集群部署成功

注意点

1. registry.k8s.io/pause:3.10.1镜像

需要在containerdk8s.io ns下放一个registry.k8s.io/pause:3.10.1镜像,在拉起核心组件的时候需要。但我们无法直接访问这个仓库,所以可能需要tag一下。使用下面的命令

shell 复制代码
ctr -n k8s.io images tag registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.10.1 registry.k8s.io/pause:3.10.1

2. 可用的镜像站点

复制代码
docker.m.daocloud.io
相关推荐
阿里云云原生2 天前
阿里云获评 Agentic AI 开发平台领导者,函数计算 AgentRun 赢下关键分!
云原生
蝎子莱莱爱打怪2 天前
Centos7中一键安装K8s集群以及Rancher安装记录
运维·后端·kubernetes
崔小汤呀2 天前
Docker部署Nacos
docker·容器
缓解AI焦虑2 天前
Docker + K8s 部署大模型推理服务:资源划分与多实例调度
docker·容器
阿里云云原生2 天前
MSE Nacos Prompt 管理:让 AI Agent 的核心配置真正可治理
微服务·云原生
阿里云云原生2 天前
当 AI Agent 接管手机:移动端如何进行观测
云原生·agent
阿里云云原生2 天前
AI 原生应用开源开发者沙龙·深圳站精彩回顾 & PPT下载
云原生
阿里云云原生2 天前
灵感启发:日产文章 100 篇,打造“实时热点洞察”引擎
云原生
1candobetter2 天前
Docker Compose Build 与 Up 的区别:什么时候必须重建镜像
docker·容器·eureka
~莫子2 天前
Haproxy七层负载详解+实验详细代码
云原生