k8s节点not ready

开发小伙伴反应,发布应用失败。检查后发现有个虚拟机挂掉了

启动后先重启服务:(一般是自启动,自动拉起pod服务)

service docker restart

docker ps |grep kube-apiserver|grep -v pause|awk '{print $1}'|xargs -i docker restart {}

docker ps |grep kube-controller-manage|grep -v pause|awk '{print $1}'|xargs -i docker restart {}

docker ps |grep kube-scheduler|grep -v pause|awk '{print $1}'|xargs -i docker restart {}

以上重启之后,还没有恢复。

通过describe node,发现有其他报错。

Warning ContainerGCFailed 35s (x7 over 6m55s) kubelet, worker2k8s rpc error: code = ResourceExhausted desc = grpc: trying to send message larger than max (16777879 vs. 16777216)

暴力操作:(一般不建议)

• 目标:先控制不可调度,然后将原来的 Pod 驱逐、排干• 首先,将原来的 Pod 驱逐到其他节点重新创建运行• 然后,将节点标识为 SchedulingDisabled 状态,也就是禁止调度• 具体命令:

kubectl drain [node name] --force --ignore-daemonsets --delete-local-data

--force: 就算 Pod 不被 ReplicationController、ReplicaSet、Job、DaemonSet、StatefulSet 等控制器管理,也直接处理;不加 force 参数只会删除该Node 节点上前面提到的几个控制器类型的 Pod,加上之后所有的 Pod 都将删除

--ignore-daemonsets: 忽略 DeamonSet 管理的 Pod,否则 DaemonSet 被删除后,仍会自动重建

--delete-local-data: 删除本地数据,即使 emptyDir 也将删除

• 恢复调度命令:

kubectl uncordon [node name]

• drain 执行的方式是比较安全的,它会等到 Pod 容器应用程序优雅的停止之后再删除• 详细的过程:先在当前节点删除 Pod,然后再在其他节点创建对应的 Pod。因此为了保证 Drain 驱逐过程中不中断服务,必须保证要驱逐的 Pod 副本的数量大于 1,并且采用"反亲和"策略将这些 Pod 调度到不同的节点。这样子可以保证驱逐过程对服务没有影响。

好吧,资源都看不到了。

踢出pod没用的话,那就把node也先踢出,再加入。

node2:

kubeadm reset

rm -rf * /etc/kubernetes/

master:

kubeadm token create --print-join-command

分析:

node2,pod太多,导致内存溢出。驱逐pod node,重新分配

相关推荐
掘金-我是哪吒1 小时前
分布式微服务系统架构第156集:JavaPlus技术文档平台日更-Java线程池使用指南
java·分布式·微服务·云原生·架构
阿里云云原生2 小时前
Serverless JManus: 企业生产级通用智能体运行时
云原生
Kookoos6 小时前
ABP VNext + Tye:本地微服务编排与调试
微服务·云原生·架构·tye
掘金-我是哪吒11 小时前
分布式微服务系统架构第157集:JavaPlus技术文档平台日更-Java多线程编程技巧
java·分布式·微服务·云原生·架构
掘金-我是哪吒12 小时前
分布式微服务系统架构第155集:JavaPlus技术文档平台日更-Java线程池实现原理
java·分布式·微服务·云原生·架构
朱杰jjj12 小时前
Docker容器中无法使用vim、vi命令处理
docker·容器·vim
东林牧之12 小时前
CICD[软件安装]:docker安装gitlab
docker·容器·gitlab
cui_hao_nan21 小时前
Docker后端部署
运维·docker·容器
小张是铁粉1 天前
docker在Linux的安装遇到的问题
linux·docker·容器
没有名字的小羊1 天前
8.Docker镜像讲解
运维·docker·容器·tomcat