二进制搭建 Kubernetes v1.20

k8s集群配置

|-------------|-----------------------|---------------------------------------|
| 主机名 | IP地址 | 服务 |
| k8smaster01 | 192.168.10.10 | apiserver、kube-manager scheduler、etcd |
| k8smaster02 | 192.168.10.20 | apiserver、kube-manager scheduler |
| node01 | 192.168.10.30 | kubelet kube-proxy etcd |
| node02 | 192.168.10.40 | kubelet kube-proxy etcd |
| 负载均衡 | master:192.168.10.50 | nginx+keepalive |
| 负载均衡 | backup: 192.168.10.60 | nginx+keepalive |

k8smaster01、node01、node02

bash 复制代码
systemctl stop firewalld
systemctl disable firewalld
iptables -F && iptables -t nat -F && iptables -t mangle -F && iptables -X
setenforce 0
sed -i 's/enforcing/disabled/' /etc/selinux/config
swapoff -a
sed -ri 's/.*swap.*/#&/' /etc/fstab

hostnamectl set-hostname master01
hostnamectl set-hostname node01
hostnamectl set-hostname node02
bash 复制代码
vim /etc/hosts

192.168.10.10 master01
192.168.10.30 node01
192.168.10.40 node02

--------------------------------------------------------------------------------
vim /etc/sysctl.d/k8s.conf

net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv6.conf.all.disable_ipv6=1
net.ipv4.ip_forward=1
--------------------------------------------------------------------------------

sysctl --system

yum -y install ntpdate
ntpdate ntp.aliyun.com 

部署 docker引擎

bash 复制代码
yum install -y yum-utils device-mapper-persistent-data lvm2 
yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo 
yum install -y docker-ce docker-ce-cli containerd.io

systemctl start docker.service
systemctl enable docker.service 

同步到此结束

部署 etcd 集群

bash 复制代码
cd /opt/k8s/
*******************
上传 cfssl、cfssljson、cfssl-certinfo
*******************
mv cfssl cfssljson cfssl-certinfo /usr/local/bin/

chmod 777 /usr/local/bin/cfssl*
bash 复制代码
mkdir /opt/k8s
cd /opt/k8s/

上传 etcd-cert.sh 和 etcd.sh 到 /opt/k8s/ 目录中
chmod 777 etcd-cert.sh etcd.sh

mkdir /opt/k8s/etcd-cert
mv etcd-cert.sh etcd-cert/
cd /opt/k8s/etcd-cert/

vim /opt/k8s/etcd-cert.sh

bash 复制代码
./etcd-cert.sh

#上传 etcd-v3.4.9-linux-amd64.tar.gz 到 /opt/k8s 目录中,启动etcd服务

bash 复制代码
cd /opt/k8s/
tar zxvf etcd-v3.4.9-linux-amd64.tar.gz
mkdir -p /opt/etcd/{cfg,bin,ssl}
cd /opt/k8s/etcd-v3.4.9-linux-amd64/
mv etcd etcdctl /opt/etcd/bin/
cp /opt/k8s/etcd-cert/*.pem /opt/etcd/ssl/
cd /opt/k8s/
./etcd.sh etcd01 192.168.10.10 etcd02=https://192.168.10.30:2380,etcd03=https://192.168.10.40:2380

#可另外打开一个窗口查看etcd进程是否正常

bash 复制代码
ps -ef | grep etcd

#把etcd相关证书文件、命令文件和服务管理文件全部拷贝到另外两个etcd集群节点

bash 复制代码
scp -r /opt/etcd/ root@192.168.10.30:/opt/
scp -r /opt/etcd/ root@192.168.10.40:/opt/
scp /usr/lib/systemd/system/etcd.service root@192.168.10.30:/usr/lib/systemd/system/
scp /usr/lib/systemd/system/etcd.service root@192.168.10.40:/usr/lib/systemd/system/

在node01节点

bash 复制代码
vim /opt/etcd/cfg/etcd
bash 复制代码
systemctl start etcd
systemctl enable etcd
systemctl status etcd

在node02节点

bash 复制代码
vim /opt/etcd/cfg/etcd
bash 复制代码
systemctl start etcd
systemctl enable etcd
systemctl status etcd

#检查etcd群集状态

bash 复制代码
ETCDCTL_API=3 /opt/etcd/bin/etcdctl --cacert=/opt/etcd/ssl/ca.pem --cert=/opt/etcd/ssl/server.pem --key=/opt/etcd/ssl/server-key.pem --endpoints="https://192.168.10.10:2379,https://192.168.10.30:2379,https://192.168.10.40:2379" endpoint health --write-out=table

#查看etcd集群成员列表

bash 复制代码
ETCDCTL_API=3 /opt/etcd/bin/etcdctl --cacert=/opt/etcd/ssl/ca.pem --cert=/opt/etcd/ssl/server.pem --key=/opt/etcd/ssl/server-key.pem --endpoints="https://192.168.10.10:2379,https://192.168.10.30:2379,https://192.168.10.40:2379" --write-out=table member list

在 master01 节点上操作

#上传 master.zipk8s-cert.sh 到 /opt/k8s 目录中,解压 master.zip 压缩包

bash 复制代码
cd /opt/k8s/
unzip master.zip
chmod 777 *.sh
bash 复制代码
vim /opt/k8s/admin.sh

修改ip

bash 复制代码
vim /opt/k8s/scheduler.sh
bash 复制代码
#创建kubernetes工作目录
mkdir -p /opt/kubernetes/{bin,cfg,ssl,logs}

#创建用于生成CA证书、相关组件的证书和私钥的目录
mkdir /opt/k8s/k8s-cert
mv /opt/k8s/k8s-cert.sh /opt/k8s/k8s-cert
cd /opt/k8s/k8s-cert/
bash 复制代码
vim /opt/k8s/k8s-cert/k8s-cert.sh
bash 复制代码
./k8s-cert.sh
cp ca*pem apiserver*pem /opt/kubernetes/ssl/

#上传 kubernetes-server-linux-amd64.tar.gz 到 /opt/k8s/ 目录中,解压 kubernetes 压缩包

bash 复制代码
cd /opt/k8s/
tar zxvf kubernetes-server-linux-amd64.tar.
cd /opt/k8s/kubernetes/server/bin
cp kube-apiserver kubectl kube-controller-manager kube-scheduler /opt/kubernetes/bin/
ln -s /opt/kubernetes/bin/* /usr/local/bin/
bash 复制代码
cd /opt/k8s/
vim token.sh
************************************************

#!/bin/bash
#获取随机数前16个字节内容,以十六进制格式输出,并删除其中空格
BOOTSTRAP_TOKEN=$(head -c 16 /dev/urandom | od -An -t x | tr -d ' ')

#生成 token.csv 文件,按照 Token序列号,用户名,UID,用户组 的格式生成
cat > /opt/kubernetes/cfg/token.csv <<EOF
${BOOTSTRAP_TOKEN},kubelet-bootstrap,10001,"system:kubelet-bootstrap"
EOF

***********************************************
bash 复制代码
chmod 777 token.sh
./token.sh
cat /opt/kubernetes/cfg/token.csv

cd /opt/k8s/
./apiserver.sh 192.168.10.10 https://192.168.10.10:2379,https://192.168.10.30:2379,https://192.168.10.40:2379

#检查进程是否启动成功

bash 复制代码
ps aux | grep kube-apiserver

#安全端口6443用于接收HTTPS请求,用于基于Token文件或客户端证书等认证

bash 复制代码
netstat -natp | grep 6443

#启动 scheduler 服务

bash 复制代码
cd /opt/k8s/
./scheduler.sh
ps aux | grep kube-scheduler

#启动 controller-manager 服务

bash 复制代码
./controller-manager.sh
ps aux | grep kube-controller-manager

#生成kubectl连接集群的kubeconfig文件

bash 复制代码
./admin.sh

#通过kubectl工具查看当前集群组件状态

bash 复制代码
kubectl get cs

#查看版本信息

bash 复制代码
kubectl version

在所有 node 节点上操作

#创建kubernetes工作目录

bash 复制代码
mkdir -p /opt/kubernetes/{bin,cfg,ssl,logs}

#上传 node.zip 到 /opt 目录中,解压 node.zip 压缩包,获得kubelet.shproxy.sh

bash 复制代码
cd /opt/
unzip node.zip
chmod 777 kubelet.sh proxy.sh

在 master01 节点上操作

#把 kubelet、kube-proxy 拷贝到 node 节点

bash 复制代码
cd /opt/k8s/kubernetes/server/bin
scp kubelet kube-proxy root@192.168.10.30:/opt/kubernetes/bin/
scp kubelet kube-proxy root@192.168.10.40:/opt/kubernetes/bin/

#上传kubeconfig.sh文件到/opt/k8s/kubeconfig目录中,生成kubelet初次加入集群引导kubeconfig文件和kube-proxy.kubeconfig文件

bash 复制代码
mkdir /opt/k8s/kubeconfig

cd /opt/k8s/kubeconfig
chmod 777 kubeconfig.sh
./kubeconfig.sh 192.168.10.10 /opt/k8s/k8s-cert/

#把配置文件 bootstrap.kubeconfig、kube-proxy.kubeconfig 拷贝到 node 节点

bash 复制代码
scp bootstrap.kubeconfig kube-proxy.kubeconfig root@192.168.10.30:/opt/kubernetes/cfg/
scp bootstrap.kubeconfig kube-proxy.kubeconfig root@192.168.10.40:/opt/kubernetes/cfg/

#RBAC授权,使用户 kubelet-bootstrap 能够有权限发起 CSR 请求证书

bash 复制代码
kubectl create clusterrolebinding kubelet-bootstrap --clusterrole=system:node-bootstrapper --user=kubelet-bootstrap

若执行失败,可先给kubectl绑定默认cluster-admin管理员集群角色,授权对整个集群的管理员权限

bash 复制代码
kubectl create clusterrolebinding cluster-system-anonymous --clusterrole=cluster-admin --user=system:anonymous

node01

#启动 kubelet 服务

bash 复制代码
cd /opt/
#检查到 node01 节点的 kubelet 发起的 CSR 请求,Pending 表示等待集群给该节点签发证书
kubectl get csr
./kubelet.sh 192.168.10.30
ps aux | grep kubelet

#加载 ip_vs 模块

bash 复制代码
for i in $(ls /usr/lib/modules/$(uname -r)/kernel/net/netfilter/ipvs|grep -o "^[^.]*");do echo $i; /sbin/modinfo -F filename $i >/dev/null 2>&1 && /sbin/modprobe $i;done
bash 复制代码
#启动proxy服务
cd /opt/
./proxy.sh 192.168.10.30
ps aux | grep kube-proxy

//在 master01 节点上操作,通过 CSR 请求

#检查到 node01 节点的 kubelet 发起的 CSR 请求,Pending 表示等待集群给该节点签发证书

bash 复制代码
kubectl get csr
bash 复制代码
kubectl certificate approve node-csr-RUWMAWXqd9drfutcgwEiBZdFoxeYQ1G0S_n64sbItrk

node02

#启动 kubelet 服务

bash 复制代码
cd /opt/
#检查到 node01 节点的 kubelet 发起的 CSR 请求,Pending 表示等待集群给该节点签发证书
kubectl get csr
./kubelet.sh 192.168.10.40
ps aux | grep kubelet

#加载 ip_vs 模块

bash 复制代码
for i in $(ls /usr/lib/modules/$(uname -r)/kernel/net/netfilter/ipvs|grep -o "^[^.]*");do echo $i; /sbin/modinfo -F filename $i >/dev/null 2>&1 && /sbin/modprobe $i;done
bash 复制代码
#启动proxy服务
cd /opt/
./proxy.sh 192.168.10.40
ps aux | grep kube-proxy

//在 master01 节点上操作,通过 CSR 请求

#检查到 node01 节点的 kubelet 发起的 CSR 请求,Pending 表示等待集群给该节点签发证书

bash 复制代码
kubectl get csr
bash 复制代码
kubectl certificate approve  node-csr-fLl1kgIHeqVyETUqSeqHlNmHthIQJGbuWfFm8WUXLVg
相关推荐
€☞扫地僧☜€38 分钟前
docker 拉取MySQL8.0镜像以及安装
运维·数据库·docker·容器
全能全知者2 小时前
docker快速安装与配置mongoDB
mongodb·docker·容器
为什么这亚子3 小时前
九、Go语言快速入门之map
运维·开发语言·后端·算法·云原生·golang·云计算
ZHOU西口5 小时前
微服务实战系列之玩转Docker(十八)
分布式·docker·云原生·架构·数据安全·etcd·rbac
牛角上的男孩6 小时前
Istio Gateway发布服务
云原生·gateway·istio
JuiceFS7 小时前
好未来:多云环境下基于 JuiceFS 建设低运维模型仓库
运维·云原生
景天科技苑8 小时前
【云原生开发】K8S多集群资源管理平台架构设计
云原生·容器·kubernetes·k8s·云原生开发·k8s管理系统
wclass-zhengge9 小时前
K8S篇(基本介绍)
云原生·容器·kubernetes
颜淡慕潇9 小时前
【K8S问题系列 |1 】Kubernetes 中 NodePort 类型的 Service 无法访问【已解决】
后端·云原生·容器·kubernetes·问题解决
川石课堂软件测试11 小时前
性能测试|docker容器下搭建JMeter+Grafana+Influxdb监控可视化平台
运维·javascript·深度学习·jmeter·docker·容器·grafana