K8S哲学 - 资源调度 DaemonSet

应用场景 日志收集

引出:

正常情况下,每个服务都会进行 各自的日志收集、但是因为他们不在 同一台 Node 上,导致一旦查日志就需要 调动各个 机器进行切换,不方便也不高效

低级做法:

在每个需要收集日志的机器上部署 fiuentd 组件进行 后台收集日志 ,需要手动控制

高级做法:

用 DaemonSet 守护进程进行收集,由 k8s为 匹配到 nodeSelector 自动部署 ,这里是

nodeSelector:

type: microServices

后续如果有新增 节点,只要有 这个 标签,那么k8s 会自动新增 一个 DaemonSet 到该节点

Affinity 亲和力

创建资源

如果不指定 nodeSelector 直接 create -f 创建 ,DeamonSet 会部署到 非 master 的 每一个 node 上

复制代码
apiVersion: apps/v1
kind: DaemonSet
metadata: 
  name: fluentd
spec: 
  selector: 
    matchLabels:
      id: fluentd
      app: logging
  template:
    metadata: 
      name: fluentd
      labels:  
        id: fluentd
        app: logging
    spec: 
      containers:
         - name: fluentd-es
           image: fluentd
           env: 
            - name: FLUENTD_ARGS
              value: -qq
           volumeMounts:
             - name: containers
               mountPath: /var/lib/docker/containers
             - name: varlog
               mountPath: /varlog
      volumes:
        - name: containers
          hostPath: 
           path: /var/lib/docker/containers
        - name: varlog
          hostPath: 
           path: /varlog

但是 加上后

删除 重新 创建 ds 查看:

由于 本机节点没有 app=ds 的 label 所以不会在本机创建 ds

但是一旦加上,立刻就创建了

所以只要 节点在 改集群内,只要 在需要的节点加上 nodeSelector 就会在该节点创建 ds

修改 ds 的默认更新策略

默认是滚动更新,结果是,一旦修改 yaml文件 template 里面的 内容,那么所有节点的 ds 都会更新,所以 修改为 OnDelete 模式、当 某一个 节点的 ds需要更新,就删除 改 ds ,会自动按照新的 yaml文件创建一个 ds

相关推荐
空中海7 小时前
Kubernetes 入门基础与核心架构
贪心算法·架构·kubernetes
小猿姐8 小时前
Redis Kubernetes Operator 实测:三个方案的真实差距
redis·容器·kubernetes
米高梅狮子8 小时前
08.CronJob和Service
云原生·容器·架构·kubernetes·自动化
AOwhisky10 小时前
Kubernetes 学习笔记:集群管理、命名空间与 Pod 基础
linux·运维·笔记·学习·云原生·kubernetes
郑寿昌11 小时前
GPU显存HPA:K8s智能扩缩实战
云原生·容器·kubernetes
不才小强12 小时前
gRPC实战指南:高性能微服务通信框架
微服务·云原生·架构
AI攻城狮13 小时前
AI 导致失业是一个伪命题
云原生
ezreal_pan13 小时前
Kafka Docker 部署持久化避坑指南:解决重启后 Cluster ID 不匹配问题
分布式·docker·zookeeper·容器·kafka·devops
益企联工程项目管理软件13 小时前
2026工程管理软件推荐:7款工具助力工程项目数字化升级!
大数据·人工智能·云原生·项目管理·制造
AI攻城狮13 小时前
Hermes + Holographic:AI Agent 的"长期记忆"是如何工作的
云原生