【基于AWS,日志回收,分析查询】

前提摘要:

业务在美国aws部署,当服务遇到问题时,如何根据服务日志进行debug。

涉及到服务日志如何收集以及检索,查询。满足典型的日志查询分析场景。

ELK参考:

对比业内标准流程,ELK(Elasticsearch , Logstash, Kibana):日志采集,日志检索,检索展示,这些要在aws上找到相同功能或自建。

1 - 业务概览

部署在美国的业务有web端,app端后端服务等。

整体部署在aws 的 k8s集群上,如何对k8s集群里的这些服务进行日志检索呢?

我们先看下服务部署架构图,

通过业务架构图,可以看到,多个服务被部署,每个服务里面又有多个Pod,Pod里面的业务应用将日志输出到文件里。我们参照ELK流程考虑,

  • 如何把日志采集回来。
  • 如何存储到检索引擎里。
  • 如何根据关键字进行日志查询,并进行展示。

2 - 方案制定

我们依次介绍下方案的概览,流程,最后描述下细节,对应操作的原因。

2.1 方案概览

a) 开启aws eks集群日志输出插件,采集标准输出。

(refs: https://docs.aws.amazon.com/zh_cn/eks/latest/userguide/fargate-logging.html)

b) 采集的数据回传到openSearch,并构建查询索引。

c) 使用kibana配合openSearch进行查询结果展示。

2.2 流程图
2.3 具体操作以及原因
2.3.1 日志采集

首先,由于aws上k8s服务的限制,(aws上的k8s服务为EKS,限制为:EKS无额外挂载实体机器,纯serverless fargate模式下,无法对Pod中的文件直接进行采集,只能采集Pod中的标准输出),所以需要一个地方将文件转为标准输出。

此处采取的是side-car思路,同一个Pod内开一个container用于把文件中的内容输出到标准输出。这样做的好处是,外挂一个container采集,侵入性是最小的,对原container的服务应用无论是服务本身,还是资源上都是没有额外影响。

其次,考虑到日志本身的维护,日志被回传回去以后,长时间的老旧日志无需一直存在Pod中,这样会把磁盘打爆,需要定期切割然后删除老旧日志。还是side-car思路,再开一个container,用于日志的切割,定期删除,做log rotate。

这样整体有3个container,1个跑业务应用,1个跑日志切分删除,1个跑文件转标准输出,对应具体 k8s yaml配置:

apiVersion: apps/v1
kind: Deployment
metadata:
  name: sample-app
  namespace: ${namespace}
  labels:
    app: sample-app
spec:
  replicas: 1
  selector:
    matchLabels:
      app: sample-app-pod
  template:
    metadata:
      name: sample-app-pod
      labels:
        app: sample-app-pod
        fargate: "yes"
      annotations:
        logs_enable: "true"
    spec:
      containers:
        # container1: 业务程序
        - name: nginx
          image: nginx:latest
          ports:
            - name: http
              containerPort: 80
          env:
            - name: LOG_DIR
              value: /logs
          volumeMounts:
            - name: log-volume
              mountPath: /logs
        # container2: 日志切分,定期删除
        - name: logrotate-es
          image: blacklabelops/logrotate:1.3
          imagePullPolicy: IfNotPresent
          env:
            - name: LOGS_DIRECTORIES
              value: /logs/*.log
            - name: LOGROTATE_COPIES
              value: "5"
            - name: LOGROTATE_SIZE
              value: 50M
            - name: LOGROTATE_CRONSCHEDULE
              value: 0 0 0 * * *
            - name: LOGROTATE_PARAMETERS
              value: f
            - name: LOGROTATE_DATEFORMAT
              value: .%Y%m%d-%H:%M:%S
          resources:
            requests:
              cpu: "1"
              memory: 1Gi
          volumeMounts:
          - mountPath: /logs
            name: log-volume
        # container3: 日志文件转为标准输出
        - name: fluent-bit
          image: fluent/fluent-bit:latest
          volumeMounts:
            - name: log-volume
              mountPath: /logs
          command: [ "/fluent-bit/bin/fluent-bit" ]
          args: [ "-i", "tail", "-p", "path=/logs/*.log", "-o", "stdout" ]

      volumes:
        - name: log-volume
          emptyDir: {}
2.3.2 检索引擎

常见的检索引擎有elasticsearch 和 openSearch,而在aws上其包含cloudwatch 和 openSearch。这里选择开一个openSearch实例,作为检索引擎。

日志数据流入前,先创建下相关field的index索引,这样才能检索到相关field的内容。

2.3.3 检索展示

用了openSearch 配套搭配的 Kibana。这里当然也可以根据我们的使用场景,预置一些语句,比如根据服务名称或者标签,加filter,做一些group分组,debug某个服务,先进入到对应分组,然后再进一步进行检索。

(dql语句参考 :https://opensearch.org/docs/2.11/dashboards/dql

最后让我们看下检索效果,我们检索一个加了索引的kubernetes.pod_name字段,检索查询词"nginx":

至此,参照着ELK流程,我们在aws上完成了业务日志的检索。


标签:aws,云服务,ELK,elasticsearch,open search,kibana

相关推荐
risc12345611 分钟前
【Elasticsearch】如何获取一致的评分
elasticsearch
小池先生5 小时前
阿里云子账号管理ECS权限配置全指南
服务器·阿里云·云计算
banjin5 小时前
免费体验,在阿里云平台零门槛调用满血版DeepSeek-R1模型
阿里云·自然语言处理·云计算·ai编程·ai写作·deepseek
云上的阿七10 小时前
云服务中的“高可用性架构”是怎样的?
云计算
云上的阿七12 小时前
云计算中的API网关是什么?为什么它很重要?
云计算
facaixxx202412 小时前
阿里云SLB负载均衡的ALB和NLB有啥区别?一个是7层一个是4层
阿里云·云计算·负载均衡
{⌐■_■}16 小时前
【git】提交修改、回撤、回滚、Tag 操作讲解,与reset (--soft、--mixed、--hard) 的区别
大数据·git·elasticsearch
网易智企17 小时前
抖音试水AI分身;腾讯 AI 战略调整架构;百度旗下小度官宣接入DeepSeek...|网易数智日报
大数据·人工智能·ai·云计算·开源软件·业界资讯·通信
screamn18 小时前
ElasticSearch详解
大数据·elasticsearch·jenkins
不是乖小孩18 小时前
elasticsearch在windows上的配置
大数据·elasticsearch·jenkins