如何排错运行在Kubernetes集群中的服务?

我们的前端服务以job运行。k8s的job用于执行一次性的任务,运行完毕即退出。以job方式运行的前端服务启动程序只做一件事情,将镜像中指定目录下的静态文件上传到对象存储。上传前会做一些变量替换,替换的值和对象存储的连接信息存储在Nacos中。

Nacos的连接信息通过job的环境变量注入,类似下面这样,

复制代码
apiVersion: batch/v1
kind: Job
metadata:
  name: frontend-app-web
spec:
  template:
    metadata:
      labels:
        app: frontend-app-web
    spec:
      containers:
      - name: frontend-app-web
        image: harbor.example.com/frontend-app-web:3
        imagePullPolicy: Always             
        env:          
          - name: NACOS_HOST
            value: nacos-cs.nacos.svc.cluster.local:8848
          - name: NACOS_AUTH_USERNAME
            value: username
          - name: NACOS_AUTH_PASSWORD
            value: veryLongPassword
      restartPolicy: Never

在部署过程中,发现有一个前端服务始终卡在连接Nacos的阶段,日志如下,

起初我确定Nacos的连接信息是没有错的,但日志显示连接Nacos超时。为了排查这个问题,将原本以job方式运行的服务更改为deployment方式,如下,

复制代码
apiVersion: apps/v1
kind: Deployment
metadata:
  name: frontend-app-web
  labels:
    app: frontend-app-web
spec:
  replicas: 1
  selector:
    matchLabels:
      app: frontend-app-web
  template:
    metadata:
      labels:
        app: frontend-app-web
    spec:
      containers:
      - name: frontend-app-web
        image: harbor.example.com/frontend-app-web:3
        imagePullPolicy: Always        

        command: ["/bin/bash"]
        args: ["-c", "while true;do sleep 3600;done"]
        tty: true
        stdin: true
 
        env:
        - name: NACOS_HOST
          value: nacos-cs.nacos.svc.cluster.local:8848
        - name: NACOS_AUTH_USERNAME
          value: username
        - name: NACOS_AUTH_PASSWORD
          value: veryLongPassword        
      restartPolicy: Always

更改为deployment运行,最重要是加入下面四行内容,

复制代码
        command: ["/bin/bash"]
        args: ["-c", "while true;do sleep 3600;done"]
        tty: true
        stdin: true

这样Pod运行后,就可以进入容器内部调试。

Pod启动后,运行镜像原本的启动命令(是一段JavaScript代码,完成文章开头提到的上传前端文件到对象存储的功能),还是一样的报错。和正常服务比较,发现Nacos的连接地址少写了"http://",在容器里面修改环境变量,

复制代码
export NACOS_HOST=http://nacos-cs.nacos.svc.cluster.local:8848

重新运行上传程序,运行成功。

K8s调试Pod核心是集群视角多维度排查,依赖kubectl工具链。因分布式隔离、临时生命周期(重启丢状态),常用logs/exec/临时容器等方法,避免直接操作宿主机。

相关推荐
薪火铺子16 小时前
微服务认证方案对比与选型
微服务·云原生·架构
运维全栈笔记17 小时前
K8S部署Redis高可用全攻略:1主2从3哨兵架构实战
redis·docker·云原生·容器·架构·kubernetes·bootstrap
尘世壹俗人17 小时前
使用K8s部署模型
kubernetes
AI攻城狮18 小时前
AI Agent 从上线到删库跑路始末
云原生
AI木马人19 小时前
9.人工智能实战:GPU 服务如何上 Kubernetes?从单机部署到 K8s + NVIDIA Device Plugin + HPA 的生产级改造
人工智能·容器·kubernetes
码点滴1 天前
告别显存焦虑:PagedAttention 如何将大模型吞吐量提升 4 倍?
人工智能·架构·kubernetes·大模型·pagedattention
键盘鼓手苏苏1 天前
Kubernetes 容器安全最佳实践
云原生·kubernetes·k8
Elastic 中国社区官方博客1 天前
Elasticsearch Serverless 中跨项目搜索(CPS)的工作原理
大数据·elasticsearch·搜索引擎·云原生·serverless
键盘鼓手苏苏1 天前
Kubernetes 安全最佳实践
云原生·kubernetes·k8
小妖同学学AI1 天前
云原生AI服务新范式:Jina Serve框架,让多模态大模型落地像搭积木一样简单
人工智能·云原生·jina