搭建K8S-1.23

0、简介

这里只用3台服务器来做一个简单的集群

|----------------|----------------|
| 地址 | 主机名 |
| 192.168.160.40 | kuber-master-1 |
| 192.168.160.41 | kuber-master-2 |
| 192.168.160.42 | kuber-node-1 |

1、关闭三个服务

(1)防火墙

systemctl stop firewalld

(2)Selinux

setenforce 0

(3)swap分区

swapoff -a

2、修改主机名,添加hosts文件

hostnamectl set-hostname kuber-master-1

hostnamectl set-hostname kuber-master-2

hostnamectl set-hostname kuber-node-1

修改/etc/hosts文件

192.168.160.40 kuber-master-1

192.168.160.41 kuber-master-2

192.168.160.42 kuber-node-1

3、修改内核参数

echo "net.bridge.bridge-nf-call-ip6tables = 1" >> /etc/sysctl.conf

echo "net.bridge.bridge-nf-call-iptables = 1" >> /etc/sysctl.conf

echo "net.ipv4.ip_forward = 1" >> /etc/sysctl.conf

4、安装docker/kubedam/kubelet

(1)安装docker

(2)安装kubeadm/kubelet

安装kubernetes的镜像源

复制代码
cat <<EOF > /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
       http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF

进行安装

复制代码
yum remove -y kubelet kubeadm kubectl
yum install -y kubelet-1.23.17 kubeadm-1.23.17 kubectl-1.23.17
systemctl enable kubelet.service

5、部署k8s master节点

复制代码
kubeadm init \
--kubernetes-version=1.23.17 \
--apiserver-advertise-address=192.168.160.40 \(这里注意转成自己的IP地址)
--image-repository registry.aliyuncs.com/google_containers \
--service-cidr=10.10.0.0/16 \
--pod-network-cidr=10.122.0.0/16

问题:[kubelet-check] The HTTP call equal to 'curl -sSL http://localhost:10248/healthz' failed with error: Get "http://localhost:10248/healthz": dial tcp [::1]:10248: connect: connection refused.

如果碰到这个问题,因为docker的版本较高用的Cgroup是cgroupfs

如果这样的话,需要修改,docker默认的使用的cgroup驱动

复制代码
vim /etc/docker/daemon.json
{
  "exec-opts": ["native.cgroupdriver=systemd"]
}
需要重启
systemctl restart docker

如果没有问题就执行下边的内容,这个在初始完master后会提示让执行这个。

mkdir -p $HOME/.kube

sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config

sudo chown (id -u):(id -g) $HOME/.kube/config

6、将node节点加入其中

下边这段命令,在初始完master后会有提示,这里是我的样例。

kubeadm join 192.168.160.40:6443 --token tn624x.ks0y432mi2y6ks2b --discovery-token-ca-cert-hash sha256:e78481f3fe23b94c24df8159974ad9e4eb6ed8efd590105d6c3ba2cf3edb0490

7、将master 2节点加入

执行下边命令获取key

kubeadm init phase upload-certs --upload-certs

最后一行是key

将加入node节点的命令和这个拼接起来

kubeadm join 192.168.160.40:6443 --token tn624x.ks0y432mi2y6ks2b --discovery-token-ca-cert-hash sha256:e78481f3fe23b94c24df8159974ad9e4eb6ed8efd590105d6c3ba2cf3edb0490 --control-plane --certificate-key xxxxxxx(上边执行命令后的key)

这一部分是需要增加的,之后在master2****上执行。

8、安装calico

9、安装ingress

相关推荐
Insist7531 天前
基于OpenEuler--docker容器化部署ceph集群
ceph·docker·容器
jyan_敬言1 天前
【Docker】docker网络配置
网络·docker·容器
2501_920047031 天前
k8s-pod的启动
云原生·容器·kubernetes
卷Java1 天前
小程序原生导航栏返回键实现
spring boot·云原生·微信小程序·uni-app
王家视频教程图书馆1 天前
docker部署mssql
docker·容器·sqlserver
祁同伟.1 天前
【C++】栈、队列、双端队列、优先级队列、仿函数
c++·容器·stl
K_i1341 天前
Kubernetes实战:MariaDB误删恢复与数据持久化
容器·kubernetes·mariadb
失散131 天前
分布式专题——22 Kafka集群工作机制详解
java·分布式·云原生·架构·kafka
Lin_Aries_04211 天前
基于 CI/CD(Jenkins)将 Spring Boot 应用自动部署到 Kubernetes 集群
spring boot·ci/cd·docker·容器·自动化·jenkins
一休哥助手1 天前
Serverless架构:无服务器计算的全面解析与实践指南
云原生·架构·serverless