Kubernetes概述介绍
目录
- Kubernetes概述介绍
- [Kubernetes 运行机制](#Kubernetes 运行机制)
- Kubernetes环境搭建部署
Kubernetes 是Google开源的容器集群管理系统,基于Docker构建一个容器的调度服务,提供资源调度、均衡容灾、服务注册、动态扩缩容等功能套件。 Kubernetes基于docker容器的云平台,简写成:k8s
Kubernetes架构由管理节点和工作节点,以及一个键值存储系统(Etcd)组成,如图所示

Master节点组件:Master 节点是 Kubernetes 集群的控制节点,负责整个集群的管理和控制,Master节点上包含以下组件:
-
etcd:一个分布式键值存储系统,用于存储Kubernetes集群的数据。etcd由CoreOS开源,它并不属于Kubernetes集群自身,因此etcd可以在集群之外独立部署。
-
kube-apiserver: Kubernetes API,集群的统一入口,各组件协调者,以RESTful API提供接口服务,所有对象资源的增删改查和监听操作都交给APIServer处理后再提交给Etcd存储
-
kube-scheduler:负责 Pod 的调度,根据调度算法为新创建的Pod选择一个Node节点,可以任意部署,可以部署在同一个节点上,也可以部署在不同的节点上等等,这些控制器负责维护集群中的不同方面,确保整个集群的状态符合预期
-
kube-controller-manager:集群中所有资源对象的自动化控制中心,处理集群中常规后台任务,一个资源对应一个控制器,而ControllerManager就是负责管理这些控制器的。例如Deployment、Service这些控制器包括但不限于:
-
Node Controller(节点控制器):负责监控节点状态,当节点出现故障时进行响应。
-
Replication Controller(副本控制器):负责确保特定数量的Pod副本在集群中运行。
-
Job Controller(任务控制器):负责监控Job对象,并生成相应Pod来执行任务。
-
Endpoint Controller(端点控制器):负责管理Service相应的Endpoint对象中关联正确的Pod IP地址。
-
Node节点:Node 节点是 Kubernetes 集群中的工作节点,Node 上的工作负载由 Master 节点分配,工作负载主要是运行容器应用,Node 节点上包含以下组件:
-
kubelet:负责 Pod 的创建、启动、监控、重启、销毁等工作,同时与 Master 节点协作,实现集群管理的基本功能。
-
kube-proxy:实现 Kubernetes Service 的通信和负载均衡.提供网络管理。
-
Pod: Pod是 Kubernetes 最基本的部署调度单元。每个 Pod 可以由一个或多个业务容器和一个根容器(Pause 容器)组成。一个 Pod 表示某个应用的一个实例
-
ReplicaSet:是 Pod 副本的抽象,用于解决 Pod 的扩容和伸缩。 Replica复制品
-
Deployment: Deployment表示部署,在内部使用ReplicaSet 来实现。可以通过Deployment 来生成相应的 ReplicaSet 完成 Pod 副本的创建
-
Service: Service 是 Kubernetes 最重要的资源对象。Service 定义了服务的访问入口,服务的调用者通过这个地址访问 Service 后端的 Pod 副本实例。Service 通过 Label Selector 同后端的 Pod 副本建立关系,Deployment 保证后端Pod 副本的数量,也就是保证服务的伸缩性
Kubernetes 运行机制

- 用户通过 API 创建一个 Pod
- apiserver 将其写入 etcd
- scheduluer 检测到未绑定 Node 的 Pod,开始调度并更新 Pod 的 Node 绑定
- kubelet 检测到有新的 Pod 调度过来,通过 container runtime 运行该 Pod
- kubelet 通过 container runtime 取到 Pod 状态,并更新到 apiserver 中
Kubernetes环境搭建部署
文中所需资料包已上传至百度网盘
链接: https://pan.baidu.com/s/1TFEffiWjAhdIhzhEKnFilg 提取码: g3pw
环境初始化安装docker
#清空Iptables默认规则
[root@k8s-master ~]# iptables -F
#关闭SELinux(将配置文件"/etc/selinux/config"中"SELINUX"字段值设置为"disabled")
[root@k8s-master ~]# vim /etc/selinux/config
#关闭交换分区(将系统表文件"/etc/fstab"中文件系统类型为"swap"的行注释)
[root@k8s-master ~]# vim /etc/fstab
#配置内核参数
#某些Kubernetes网络插件可能会用到网络桥接(Bridge),为了确保网络桥接的数据包经过Iptables处理,启用相关的内核参数:
[root@k8s-master ~]# cat > /etc/sysctl.d/k8s.conf << EOF
> net.bridge.bridge-nf-call-ip6tables = 1
> net.bridge.bridge-nf-call-iptables = 1
> EOF
#配置生效
[root@k8s-master ~]# sysctl --system
* Applying /usr/lib/sysctl.d/00-system.conf ...
net.bridge.bridge-nf-call-ip6tables = 0
net.bridge.bridge-nf-call-iptables = 0
net.bridge.bridge-nf-call-arptables = 0
* Applying /usr/lib/sysctl.d/10-default-yama-scope.conf ...
kernel.yama.ptrace_scope = 0
* Applying /usr/lib/sysctl.d/50-default.conf ...
kernel.sysrq = 16
kernel.core_uses_pid = 1
net.ipv4.conf.default.rp_filter = 1
net.ipv4.conf.all.rp_filter = 1
net.ipv4.conf.default.accept_source_route = 0
net.ipv4.conf.all.accept_source_route = 0
net.ipv4.conf.default.promote_secondaries = 1
net.ipv4.conf.all.promote_secondaries = 1
fs.protected_hardlinks = 1
fs.protected_symlinks = 1
* Applying /etc/sysctl.d/99-sysctl.conf ...
* Applying /etc/sysctl.d/k8s.conf ...
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
* Applying /etc/sysctl.conf ...
#配置阿里云yum源
[root@k8s-master ~]# rm -rf /etc/yum.repos.d/*
[root@k8s-master ~]# curl https://mirrors.aliyun.com/repo/Centos-7.repo -o /etc/yum.repos.d/CentOS-Base.repo
% Total % Received % Xferd Average Speed Time Time Time Current
Dload Upload Total Spent Left Speed
100 2523 100 2523 0 0 17187 0 --:--:-- --:--:-- --:--:-- 17280
[root@k8s-master ~]# ll /etc/yum.repos.d/
total 4
-rw-r--r--. 1 root root 2523 Sep 16 21:59 CentOS-Base.repo
#安装docker
wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo
yum install -y docker-ce
#配置镜像下载加速器
[root@k8s-master ~]# cat /etc/docker/daemon.json
{
"registry-mirrors": ["https://docker.ketches.cn","https://docker.1ms.run","https://hub1.nat.tf","https://docker.m.daocloud.io"]
}
#设置开机自启动
systemctl start docker && systemctl enable docker
安装cri-docker
在Kubernetes早期版本中1.24版本之前工作流程,Docker作为默认容器运行时,并在Kubelet程序中开发了一个名为"Dockershim"的代理程序,负责Kubelet与Docker通信,如图所示
随着Kubernetes生态系统的发展,涌现出多种容器运行时,例如containerd、cri-o、rkt等。为了支持这些容器运行时,Kubernetes引入CRI(Container Runtime Interface,容器运行时接口)标准,使得第三方容器运行时只需对接CRI即可与Kubernetes集成。后来,在Kubernetes 1.20版本发布时宣布:为了优化核心代码,减少维护负担,将在1.24版本中正式移除"Dockershim",而当时Docker又不支持CRI,这就意味着Kubernetes无法再Docker作为容器运行时。Docker官方为了解决这个问题,与Mirantis公司合作,开发了一个名为"cri-dockerd"的代理程序,负责Kubelet与Docker通信,如图所示
[root@k8s-master ~]# ll
-rw-r--r--. 1 root root 9642368 Sep 16 21:56 cri-dockerd-0.3.2-3.el7.x86_64.rpm
[root@k8s-master ~]# rpm -ivh cri-dockerd-0.3.2-3.el7.x86_64.rpm
Preparing... ################################# [100%]
package cri-dockerd-3:0.3.2-3.el7.x86_64 is already installed
#安装完成后,修改Systemd服务文件指定依赖的Pause镜像为国内镜像地址
[root@k8s-master ~]# vi /usr/lib/systemd/system/cri-docker.service
...
ExecStart=/usr/bin/cri-dockerd --container-runtime-endpoint fd:// --pod-infra-container-image=registry.aliyuncs.com/google_containers/pause:3.9
...
[root@k8s-master ~]# systemctl start cri-docker && systemctl enable cri-docker
kubeadm官方部署
-
安装kubeadm和kubelet
-
在所有节点上安装kubeadm、kubectl和kubelet组件。但这些软件包未包含在系统默认软件源中,需要额外配置Yum软件源,例如配置阿里云的软件源
cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes-new/core/stable/v1.32/rpm/
enabled=1
gpgcheck=1
gpgkey=https://mirrors.aliyun.com/kubernetes-new/core/stable/v1.32/rpm/repodata/repomd.xml.key
EOF#安装指定版本kubeadm、kubectl和kubelet
yum install -y kubeadm-1.32.0 kubectl-1.32.0 kubelet-1.32.0systemctl enable kubelet
-
部署Master节点
-
在Master节点执行以下命令初始化Kubernetes管理节点
[root@k8s-master ~]# kubeadm init \
--apiserver-advertise-address=192.168.1.19
--image-repository=registry.aliyuncs.com/google_containers
--kubernetes-version=v1.32.0
--pod-network-cidr=10.244.0.0/16
--service-cidr=10.96.0.0/12
--cri-socket=unix:///var/run/cri-dockerd.sock
--ignore-preflight-errors=all#该命令中各参数含义如下:
--apiserver-advertise-address:指定API Server监听的IP地址。如果没有设置,将使用默认的网络接口。
--image-repository:指定镜像仓库地址。默认值为"registry.k8s.io",但该仓库在国内无法访问,因此这里指定阿里云仓库。
--kubernetes-version:指定Kubernetes版本。
--pod-network-cidr:指定Pod网络的CIDR地址范围。
--service-cidr:指定Service网络的CIDR地址范围。
--cri-socket:指定kubelet连接容器运行时的Unix套接字文件。#命令执行后,kubeadm会执行一系列任务,大概如下:
[certs]:生成Kubernetes组件所需的HTTPS证书和秘钥,并存放到"/etc/kubernetes/pki"目录;
[kubeconfig]:生成kubeconfig文件,该文件包含API Server地址、客户端证书等信息,并存放到"/etc/kubernetes"目录。
[kubelet-start]:生成kubelet配置文件"/var/lib/kubelet/config.yaml"并启动kubelet服务。
[control-plane]:为kube-apiserver、kube-controller-manager和kube-scheduler创建静态Pod资源文件,并存储到"/etc/kubernetes/manifests"目录。
[etcd]:为etcd创建静态Pod资源文件,并存储到"/etc/kubernetes/manifests"目录。
[wait-control-plane]:等待kubelet从目录"/etc/kubernetes/manifest"中以静态Pod的形式启动Master组件。
[apiclient]:检查Master组件是否健康。
[upload-config]:将kubeadm配置存储到ConfigMap对象中。
[kubelet]:将kubelet配置存储到ConfigMap对象中。
[upload-certs]:提示用户跳过证书上传。
[mark-control-plane]:给Master节点添加标签和污点。
[bootstrap-token]:生成引导令牌,用于Node节点在加入集群时使用。
[kubelet-finalize]:更新kubelet配置文件(/etc/kubernetes/kubelet.conf)。
[addons]:安装CoreDNS和kube-proxy插件。#紧接着,输出初始化成功的信息
Your Kubernetes control-plane has initialized successfully!To start using your cluster, you need to run the following as a regular user:
mkdir -p $HOME/.kube sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config sudo chown $(id -u):$(id -g) $HOME/.kube/config
Alternatively, if you are the root user, you can run:
export KUBECONFIG=/etc/kubernetes/admin.conf
You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
https://kubernetes.io/docs/concepts/cluster-administration/addons/Then you can join any number of worker nodes by running the following on each as root:
kubeadm join 192.168.1.19:6443 --token yppgun.j5yxio8l5a5p5sw1
--discovery-token-ca-cert-hash sha256:c9886aaf0e1ca8793095925eae2f0a4016f4c45d81a4da6055a57e7aea2c9b47#根据上述提示,执行以下命令开始使用集群:
[root@k8s-master ~]# mkdir -p HOME/.kube [root@k8s-master ~]# sudo cp -i /etc/kubernetes/admin.conf HOME/.kube/config
[root@k8s-master ~]# sudo chown (id -u):(id -g) $HOME/.kube/config#这些命令是将文件"/etc/kubernetes/admin.conf"复制到"$HOME/.kube/config",以便kubectl根据该配置文件连接和管理Kubernetes集群
-
将node节点加入到Master集群
-
需要注意的是,Kubernetes考虑到安全性"kubeadm join"命令中的Token有效期为24小时,过期后不可再使用,届时可以在master节点上通过
kubeadm token create --print-join-command
命令创建新的Token,以添加新的工作节点。[root@k8s-node1 ~]# kubeadm join 192.168.1.19:6443 --token yppgun.j5yxio8l5a5p5sw1 \
--discovery-token-ca-cert-hash sha256:c9886aaf0e1ca8793095925eae2f0a4016f4c45d81a4da6055a57e7aea2c9b47
--cri-socket=unix:///var/run/cri-dockerd.sock
--ignore-preflight-errors=all
...
...
This node has joined the cluster:- Certificate signing request was sent to apiserver and a response was received.
- The Kubelet was informed of the new secure connection details.
Run 'kubectl get nodes' on the control-plane to see this node join the cluster.
#master节点查看node节点是否加入成功
[root@k8s-master ~]# kubectl get node
NAME STATUS ROLES AGE VERSION
k8s-master NotReady control-plane 7m21s v1.32.0
k8s-node1 NotReady <none> 40s v1.32.0
k8s-node2 NotReady <none> 4s v1.32.0 -
master节点部署网络插件
-
在上述结果中,节点状态显示为"NotReady"表示节点尚未准备就绪。这是由于kubelet服务未发现网络插件导致的,kubelet日志中也有相关说明("network plugin is not ready")Kubernetes网络插件主要用于实现集群内部Pod通信,它负责配置和管理Pod的网络。常见的网络插件包括Calico、Flannel、Cilium等,这里选择使用Calico作为Kubernetes网络插件,安装Calico网络插件:
[root@k8s-master ~]# ls
calico-operator.zip custom-resources.yaml kubernetes-dashboard.yaml
cri-dockerd-0.3.2-3.el7.x86_64.rpm hostname tigera-operator.yaml
[root@k8s-master ~]# kubectl create -f tigera-operator.yaml
[root@k8s-master ~]# kubectl create -f custom-resources.yaml#网络插件容器都已经正常运行
[root@k8s-master ~]# kubectl get pods -n calico-system
NAME READY STATUS RESTARTS AGE
calico-kube-controllers-565599874f-ps5bn 1/1 Running 0 5m59s
calico-node-24rbz 1/1 Running 0 5m59s
calico-node-84lh9 1/1 Running 1 (80s ago) 5m59s
calico-node-dqhs7 1/1 Running 0 5m59s
calico-typha-756df495cb-jh44l 1/1 Running 0 5m59s
calico-typha-756df495cb-zf846 1/1 Running 0 5m50s
csi-node-driver-822tz 2/2 Running 0 5m59s
csi-node-driver-858f8 2/2 Running 0 5m59s
csi-node-driver-m2wz6 2/2 Running 0 5m59s#查看节点状态是否已准备就绪ready
[root@k8s-master ~]# kubectl get node
NAME STATUS ROLES AGE VERSION
k8s-master Ready control-plane 28m v1.32.0
k8s-node1 Ready <none> 21m v1.32.0
k8s-node2 Ready <none> 21m v1.32.0