k8s重启后报错Error getting node not found

今天升级一台3主的k8s集群的配置。升级其中一台后另外两个节点就出现Not Ready的状态。

升级之前最好把一些能停的应用停掉。或者能够通过增加临时节点来进行扩容,不然所有pod调度到其他节点,可能把其他节点压垮。没办法,只能把其他两台直接升级配置,然后重启。重启之后三台中有两台Not Ready。节点的Not Ready的凭据是kubelet上报的数据,所以首先重启下kubelet:

systemctl restart kubelet

重启后依然是Not Ready, 于是在Not Ready的节点上查看kubelet的日志:

复制代码
# 查看Kubelet的所有日志
sudo journalctl -u kubelet

# 查看最近的Kubelet日志
sudo journalctl -u kubelet -r

# 查看最近两小时的Kubelet日志
sudo journalctl -u kubelet --since "2 hours ago"

发现报错:

"Error getting node" err="node \"txbj-164020-prod-tb-kubelet\" not found"

于是对比现在的主机名,发现确实不一样,于是使用hostnamectl修改主机名并重启kubelet:

复制代码
hostnamectl set-hostname txbj-164020-prod-tb-kubelet
systemctl restart kubelet

最后恢复正常

但是不知道为什么在控制台重启后主机名为什么会变,总之把我搞紧张了。

相关推荐
霜落花轻扬1 小时前
docker 开发环境卡死的解决办法
运维·docker·容器
@王先生11 小时前
docker安装固定版本20.10 k8s 1.23.17兼容版本
docker·容器·kubernetes
眷蓝天1 小时前
Kubernetes RBAC 认证机制
云原生·容器·kubernetes
humcomm1 小时前
云原生技术的未来发展趋势是什么(2026年4月)
云原生
岳来1 小时前
k8s pod 重启策略RestartPolicy 学习
容器·kubernetes·pod·restartpolicy
曾庆睿2 小时前
【基于 RHEL 9.3 的 K8s + GitLab 全自动化部署环境搭建第一篇】
kubernetes·自动化·gitlab
曾庆睿2 小时前
【基于 RHEL 9.3 的 K8s + GitLab 全自动化部署环境搭建第二篇】
kubernetes·自动化·gitlab
不恋水的雨4 小时前
docker安装clickhouse数据库容器
clickhouse·docker·容器
炸炸鱼.5 小时前
Docker 高级管理:Compose 容器编排与私有仓库实战
云原生·eureka