k8s重启后报错Error getting node not found

今天升级一台3主的k8s集群的配置。升级其中一台后另外两个节点就出现Not Ready的状态。

升级之前最好把一些能停的应用停掉。或者能够通过增加临时节点来进行扩容,不然所有pod调度到其他节点,可能把其他节点压垮。没办法,只能把其他两台直接升级配置,然后重启。重启之后三台中有两台Not Ready。节点的Not Ready的凭据是kubelet上报的数据,所以首先重启下kubelet:

systemctl restart kubelet

重启后依然是Not Ready, 于是在Not Ready的节点上查看kubelet的日志:

复制代码
# 查看Kubelet的所有日志
sudo journalctl -u kubelet

# 查看最近的Kubelet日志
sudo journalctl -u kubelet -r

# 查看最近两小时的Kubelet日志
sudo journalctl -u kubelet --since "2 hours ago"

发现报错:

"Error getting node" err="node \"txbj-164020-prod-tb-kubelet\" not found"

于是对比现在的主机名,发现确实不一样,于是使用hostnamectl修改主机名并重启kubelet:

复制代码
hostnamectl set-hostname txbj-164020-prod-tb-kubelet
systemctl restart kubelet

最后恢复正常

但是不知道为什么在控制台重启后主机名为什么会变,总之把我搞紧张了。

相关推荐
麻辣兔变形记3 小时前
深入理解微服务下的 Saga 模式——以电商下单为例
微服务·云原生·架构
菜萝卜子4 小时前
Kubernetes metrics-server 部署与全场景使用指南
云原生·容器·kubernetes
阿里云云原生6 小时前
祝贺东航首飞全球最长单程航线!通义千问和 AI 网关助力推出首个行程规划 Agent
云原生
腾讯云中间件6 小时前
Kafka 集群上云新突破:腾讯云 CKafka 联邦迁移方案
云原生·kafka·消息队列
..Move...8 小时前
基于Containerd搭建 K8s
运维·nginx·云原生
Brandon汐9 小时前
k8s-Pod详解-1
云原生·容器·kubernetes
阿里云云原生9 小时前
打通可观测性的“任督二脉”:实体与关系的终极融合
云原生
基哥的奋斗历程10 小时前
部署指南-1B-单体Docker-自建方案
运维·docker·容器
❥ღ Komo·10 小时前
K8s持久化存储:数据永不丢失的秘密
云原生·容器·kubernetes
java程序员一位10 小时前
nifi dockercompose安装报错
云原生·eureka