Kafka入门到实战-第三弹

Kafka入门到实战

Kafka的KRaft mode

Apache Kafka Raft (KRaft)是在KIP-500中引入的一种共识协议,旨在消除Apache Kafka对ZooKeeper在元数据管理上的依赖。

官网地址

声明: 由于操作系统, 版本更新等原因, 文章所列内容不一定100%复现, 还要以官方信息为准

bash 复制代码
https://kafka.apache.org/

Kafka概述

Apache Kafka 是一个开源的分布式事件流平台,提供高性能数据管道、流分析、 数据集成和任务关键型应用程序。

Kafka的KRaft mode详细介绍

配置

  • 配置角色, 配置process.roles 属性
    • broker kafka服务实例

    • controller kafka控制器

      • 指定的Kafka服务器才能成为controller, zookeeper模式是都可能

      • 要么是活跃的, 要么是热备

      • 3个允许一个出故障, 5个允许2个出故障

      • 每个服务实例和控制器都必须设置controller.quorum.voters属性, id和服务器要对应. 此外, id不能重复

        bash 复制代码
        process.roles=controller
        node.id=1
        listeners=CONTROLLER://controller1.example.com:9093
        [email protected]:9093,[email protected]:9093,[email protected]:9093
    • broker,controller 既是控制器又是服务实例(生产环境不要这样设置)

    • 不设置 系统将默认使用"ZooKeeper模式"

储存工具

使用kafka-storage.sh random-uuid命令为新的集群生成一个集群ID。在使用kafka-storage.sh format命令对集群中的每个服务器进行格式化时,必须使用这个集群ID。

调试

  • kafka-metadata-quorum工具可以用来描述集群元数据分区的运行状态。

    bash 复制代码
      > bin/kafka-metadata-quorum.sh --bootstrap-server  broker_host:port describe --status
  • kafka-dump-log工具可以用来调试集群元数据目录的日志段和快照

    • 这个命令解码并打印第一个日志段中的记录

      bash 复制代码
      bin/kafka-dump-log.sh --cluster-metadata-decoder --files metadata_log_dir/__cluster_metadata-0/00000000000000000000.log
    • 这个命令解码并打印集群元数据快照中的记录

      bash 复制代码
       > bin/kafka-dump-log.sh --cluster-metadata-decoder --files metadata_log_dir/__cluster_metadata-0/00000000000000000100-0000000001.checkpoint
  • kafka-metadata-shell工具可以用来交互式地检查集群元数据分区的状态

    bash 复制代码
    > bin/kafka-metadata-shell.sh  --snapshot metadata_log_dir/__cluster_metadata-0/00000000000000000000.log
    >> ls /
    brokers  local  metadataQuorum  topicIds  topics
    >> ls /topics
    foo
    >> cat /topics/foo/0/data

部署注意事项

  • 角色设置为broker或controller,但不能同时设为两者
  • 一个Kafka集群应使用3个controller
  • 对于一般的Kafka集群,元数据日志目录的主内存5GB和硬盘空间5GB就足够了

缺失的功能

  • 支持具有多个存储目录的JBOD配置
  • 修改独立KRaft控制器上的某些动态配置

ZooKeeper到 KRaft迁移

  • 不建议生产这样做

更新计划

欲知后事如何, 请听下回分解

相关推荐
啊sen丶1 小时前
消息队列的特性与使用场景:Kafka、ActiveMQ、RabbitMQ与RocketMQ的深度剖析
分布式·kafka·消息队列·rabbitmq·rocketmq·activemq
洛北辰南10 小时前
系统架构设计师—案例分析—数据库篇—分布式缓存技术
数据库·分布式·系统架构·缓存技术
俏布斯13 小时前
Kafka的零拷贝
中间件·kafka
努力的搬砖人.14 小时前
Kafka相关的面试题
java·后端·kafka
pen-ai15 小时前
【NLP】 3. Distributional Similarity in NLP(分布式相似性)
人工智能·分布式·自然语言处理
DemonAvenger15 小时前
实战:从零仿NSQ打造高性能消息队列 - Go开发者的进阶之路
分布式·架构·go
戏神17 小时前
ELK+Filebeat+Kafka+Zookeeper安装部署
nginx·elk·zookeeper·kafka·filebeat·集群部署·分布式系统
MiniFlyZt18 小时前
使用Redis如何实现分布式锁?(超卖)
数据库·redis·分布式
老朋友此林21 小时前
Redisson 实现分布式锁源码浅析
java·redis·分布式
月落星还在1 天前
ZooKeeper的五大核心作用及其在分布式系统中的关键价值
分布式·zookeeper·云原生