k8s中replication controller组件

背景

为了保证正常运行的pod的数量满足我们的要求,k8s中退出了replication controller的概念,这个组件的主要作用就是保证有指定数量的pod运行在集群中

replication controller组件

1.我们先看一下replication controller组件的配置文件定义

xml 复制代码
kind:RellicationController  --replication controller类型
spec:
	replicas:3  			--pod的副本数量为3
	selector:
		name: tomcat		--replication controller组件选择的那些标识的pod

上面这个配置文件的意思是要保证集群中运行的tomcat这个pod的数量是3个,如果中途有某个tomcat的pod挂了,k8s需要在其他的node上启动新的tomcat的pod,保证replication controller组件要求的3个副本的要求

2.replication controller组件可以保证要求的pod的数量的前提是要知道pod的状态到底是成功和失败,而pod的成功和失败的定义其实是不要确定的,因为pod中会运行好多docker容器,不过目前k8s容器把pod中任意一个容器的失败都对应到整个pod的失败上了,所以实际上其实不排除被定义为失败的pod上有些docker 容器其实还正常运行,这种情况下,其实k8s还会给被判断为失败的pod发送强杀的信号,真正把被标识为失败的pod中的所有容器都停止.

replication controller组件非常好理解,其目的就是保证集群中有指定数量的pod在运行

相关推荐
跟着珅聪学java5 小时前
Eureka 客户端状态为 DOWN 的解决方案
云原生·eureka
明灯L6 小时前
《Kubernetes 集群搭建全指南:从核心概念到环境部署!》
云原生·容器·kubernetes
insight^tkk7 小时前
【Docker】记录一次使用docker部署dify网段冲突的问题
运维·人工智能·docker·ai·容器
江湖人称小鱼哥7 小时前
WSL + Docker 网络访问详解
网络·docker·容器·wsl
韩宏伟7 小时前
使用 Loki + Promtail + Grafana 实现 Docker 容器日志采集与可视化
docker·容器·grafana
荣光波比8 小时前
K8S(十五)—— 企业级K8s集群管理实践:Rancher安装配置与核心功能实操
容器·kubernetes·rancher
没有bug.的程序员9 小时前
电商系统分布式架构实战:从单体到微服务的演进之路
java·分布式·微服务·云原生·架构·监控体系·指标采集
重生之我要当java大帝9 小时前
java微服务-尚医通-数据字典-5
vue.js·微服务·云原生·架构
小屁不止是运维9 小时前
k8s问题详解1:k8s集群上传文件过大导致413 Request Entity Too Large(请求文件实体过大)
docker·容器·kubernetes