利用k8s Infra 容器,解决pod网络故障注入的问题

目录

一、infra容器作用

二、pod网络故障注入问题

[三、充分利用pod infra容器](#三、充分利用pod infra容器)


一、infra容器的作用

我们知道,在kubernetes中,pod中容器的资源隔离主要通过namespace和cgroup来实现。那如果我们需要为pod中的容器共享某种资源应该怎么做。kubernetes 中的 pause 容器就提供了以下功能:

  • 在 pod 中担任 Linux 命名空间共享的基础;
  • 启用 pid 命名空间,开启 init 进程。

二、pod网络故障注入问题

背景:

在给pod注入网络故障,模拟pod网络延迟,丢包的场景下,会出现注入故障的目标container重启,进而导致故障恢复失败,最后只能重启相应pod来恢复故障。

如上图所示,注入故障后显示0/1的pod。

问题分析:

是什么原因导致目标pod会重启呢?故障注入本身是由tc实现的,并不会引起该问题。然后想到容器具有探针机制,当用户容器配置了livenessProbe探针时,由于容器被注入了各种网络延迟或者丢包,会导致探针失败,从而使kubelet重启container,导致后续一系列依赖之前容器的操作失败。

三、充分利用pod infra容器

思考:

那有没有一种办法可以既可以注入故障,又可以不受重启container的影响?这边想到两种方案。

1.重启查询新启动的container,对新的目标container进行故障恢复。

2.通过前面infra容器的前置知识,可以知道infra container是和pod所有容器共享networknamespace的,因此可以直接把故障做在infra容器上,并且infra容器的生命周期是和pod相同的。

解决:

有了上述两种方案,我们再对其进行比较。

在方案1中,有下面几种情况仍然会出现恢复失败:

1.在恢复过程中,恰巧目标container重启了。

2.恢复时间点在新旧container重启的间隙。

3.尝试重试并且成功的时间间隔和新旧container重启并启动的时间间隔相关。

因此,需要不停重试,直到恢复成功为止,并不是一个看上去很好的解决方案。

再看看方案2,和没有重启的故障注入、恢复假设一模一样。通过分析和尝试最后选择了方案2。

四、参考

相关推荐
熊出没1 小时前
微服务如何集成swagger3
微服务·云原生·架构
xiao-xiang1 小时前
redis-集成prometheus监控(k8s)
数据库·redis·kubernetes·k8s·grafana·prometheus
MANONGMN8 小时前
Kubernetes(K8s)常用命令全解析:从基础到进阶
云原生·容器·kubernetes
Johny_Zhao9 小时前
基于 Docker 的 LLaMA-Factory 全流程部署指南
linux·网络·网络安全·信息安全·kubernetes·云计算·containerd·yum源·系统运维·llama-factory
wdxylb11 小时前
云原生俱乐部-RH134知识点总结(1)
linux·云原生
陈陈CHENCHEN12 小时前
【Kubernetes】在 K8s 上部署 Prometheus
kubernetes·prometheus
天上掉下来个程小白13 小时前
微服务-02.认识微服务-单体架构
微服务·云原生·架构
nshkfhwr13 小时前
什么是微服务
微服务·云原生·架构·云计算·集群
forestsea13 小时前
微服务远程调用完全透传实现:响应式与非响应式解决方案
微服务·云原生·架构
郝同学的测开笔记15 小时前
从漏洞到防护:如何为你的CronJob添加RBAC安全层?
云原生·kubernetes·测试