【解决】k8s使用flannel网络插件的问题整理

问题1: 拉取镜像失败ImagePullBackOff

问题排查

1、查看所有pod的状态

bash 复制代码
kubectl get pods --all-namespaces

kube-flannel的两个pod状态为ImagePullBackOff,由于镜像拉取异常导致

2、查看pod启动日志,获取更详细的信息

kubectl logs -n 命名空间namespace 容器名称pod-name

bash 复制代码
 kubectl logs -n kube-flannel kube-flannel-ds-4rf8k -c kube-flannel

报错Failed to check br netfilter: stat /proc/sys/net/bridge/bridge-nf-call-iptables: no such file or directory

错误通常表示内核模块 br_netfilter 未加载或未正确配置。br_netfilter 模块用于在桥接网络中启用 iptables 规则,这是 Kubernetes 网络插件Flannel 正常工作的必要条件

github文档-README.md

Flannel 需要 br_netfilter 模块才能启动,从 1.30 版本开始,kubeadm 不再检查该模块是否已安装,如果缺少该模块,Flannel 将无法正确启动。

解决

加载 br_netfilter 模块

bash 复制代码
sudo modprobe br_netfilter

编辑 /etc/modules-load.d/br_netfilter.conf 文件,确保在系统启动时加载 br_netfilter 模块:

bash 复制代码
echo "br_netfilter" | sudo tee /etc/modules-load.d/br_netfilter.conf

配置以启用桥接网络的 iptables 规则

bash 复制代码
cat > /etc/sysctl.d/k8s.conf << EOF
net.ipv4.ip_forward = 1 # 开启路由转发
net.bridge.bridge-nf-call-ip6tables = 1 # 开启桥流量监控
net.bridge.bridge-nf-call-iptables = 1 # 开启桥流量监控
EOF

生效

bash 复制代码
sudo sysctl --system  

重启kubelet和containerd

bash 复制代码
systemctl daemon-reload
systemctl restart kubelet
systemctl restart containerd

问题2: pod启动失败CrashLoopBackOff

问题排查

1、 查看pod状态

bash 复制代码
kubectl get pods -n kube-flannel

2、查看日志输出

bash 复制代码
kubectl logs -n kube-flannel  kube-flannel-ds-4hlrk

报错Error registering network: failed to acquire lease: node "xxx" pod cidr not assigned

大概意思就是:flannel网络插件在尝试为节点注册网络时,Kubernetes无法为其分配一个Pod CIDR(Pod网络的IP地址范围)。这通常是由于集群的网络配置没有正确地设置CIDR范围。

官方文档中明确指出,必须在kubeadm init的时候设置 --pod-network-cidr=10.244.0.0/16

github文档-kubernetes.md

解决

1、在networking中增加podSubnet: 10.244.0.0/16配置

bash 复制代码
kubectl edit cm kubeadm-config -n kube-system

2、修改 controller-manager 静态 pod 的启动参数,在command中增加 --allocate-node-cidrs=true--cluster-cidr=10.244.0.0/16

bash 复制代码
vi /etc/kubernetes/manifests/kube-controller-manager.yaml
yaml 复制代码
- --allocate-node-cidrs=true
- --cluster-cidr=10.244.0.0/16

检查配置生效

bash 复制代码
kubectl cluster-info dump | grep -m 1 cluster-cidr

重启kubelet、containerd

bash 复制代码
systemctl daemon-reload
systemctl restart kubelet
systemctl restart containerd

稍等一会,重新查看pod状态

bash 复制代码
kubectl get pods -A
相关推荐
故事写到这2 小时前
第一章 Ubuntu24.04环境下的K8S部署【入门保姆级】
云原生·容器·kubernetes
走路带_风2 小时前
Ubuntu server 22.04 安装kubernetes
云原生·容器·kubernetes
Xyz996_4 小时前
K8S-Configmap资源
云原生·容器·kubernetes
Warren984 小时前
datagrip新建oracle连接教程
数据库·windows·云原生·oracle·容器·kubernetes·django
ascarl20105 小时前
准确--Kubernetes 修改 NodePort 端口范围操作文档
云原生·容器·kubernetes
少陽君6 小时前
Kubernetes Debug 专用镜像实践指南
云原生·容器·kubernetes
weixin_46687 小时前
K8S-RBAC2
docker·容器·kubernetes
海鸥818 小时前
Job 对应的 Pod 运行成功后未被删除 小结
容器·kubernetes
运维栈记21 小时前
如何排错运行在Kubernetes集群中的服务?
云原生·容器·kubernetes
木风小助理1 天前
Kubernetes持久化存储架构深度解析:从易失的Pod到永恒的数据
kubernetes