一、Kafka 简介
1. 消息引擎系统ABC
Apache Kafka是一款开源的消息引擎系统,也是一个分布式流处理平台。除此之外,Kafka还能够被用作分布式存储系统(极少)。
A. 常见的两种消息引擎系统传输协议(即用什么方式把消息传输出去)
- 点对点模型:也叫消息队列模型。系统A发送的消息只能被系统B接收,其他任何系统都不能读取A发送的消息。
- 发布/订阅模型:与点对点模型不用的是,发布/订阅模型有一个主题(Topic)的概念,可以理解为逻辑语义相近的消息容器。发布/订阅模型的发送方成为发布者(Publisher),接收方(Subscriber)。和点对点模型不同的是,这个模型可能存在多个发布者向相同的主题发送消息,而订阅者也可能存在多个,它们都能接收到相同主题的消息。
B. Kafka在设计之初就旨在提供三个方面的特性:
- 提供一套API实现生产者和消费者
- 降低网络传输和磁盘存储开销
- 实现高伸缩性架构
C. 作为流处理平台,Kafka与其他主流大数据流式计算框架相比,优势有两点:
- 更容易实现端到端的正确性
- 它自己对于流式计算的定位
2. 术语
Kafka体系架构 = M个producer +N个broker +K个consumer+ZK集群
- producer:生产者
- broker:服务代理节点,Kafka服务实例。 n个组成一个Kafka集群,通常一台机器部署一个Kafka实例,一个实例挂了其他实例仍可以使用,体现了高可用
- consumer:消费者 消费topic 的消息, 一个topic 可以让若干个consumer消费,若干个consumer组成一个 consumer group ,一条消息只能被consumer group 中一个consumer消费,若干个partition 被若干个consumer 同时消费,达到消费者高吞吐量
- topic :主题
- partition:分区
一个topic 可以拥有若干个partition(从 0 开始标识partition ),分布在不同的broker 上, 实现发布与订阅时负载均衡。producer 通过自定义的规则将消息发送到对应topic 下某个partition,以offset标识一条消息在一个partition的唯一性。
一个partition拥有多个replica,提高容灾能力。replica 包含两种类型:leader 副本(负责读写请求)、follower副本(负责同步leader副本消息,通过副本选举实现故障转移)。
partition在机器磁盘上以log 体现,采用顺序追加日志的方式添加新消息、实现高吞吐量。
3. Kafka选型
Kafka类型 | 特点 | 场景 |
---|---|---|
Apache Kafka | 最"正宗"的 Kafka。 1. 迭代速度快,社区响应度高,更高的把控度;2. 只提供读写磁盘文件的连接器,与其他外部系统交互时需要自行编写代码实现; 3. 没有没有提供任何监控框架或工具,但是可以借助Kafka manage、kafka eagler等第三方框架进行监控 | 需要一个消息引擎系统亦或是简单的流处理应用场景,同时需要对系统有较大把控度 |
Confluent Kafka | Confluent Kafka 提供了一些 Apache Kafka 没有的高级特性,比如跨数据中心备份、Schema 注册中心以及跨数据中心备份和集群监控等。但相关文档资料不全,普及率较低(Schema 注册中心:集中管理 Kafka 消息格式;REST proxy :支持开放 HTTP 接口的方式访问) | 需要用到 Kafka 的一些高级特性 |
Cloudera/Hortonworks Kafka | 集成了目前主流的大数据框架,能够帮助用户实现从分布式存储、集群调度、流处理到机器学习、实时数据库等全方位的数据处理 | 需要快速地搭建消息引擎系统,或者需要搭建的是多框架构成的数据平台且 Kafka 只是其中一个组件 |
4. kafka版本号
Kafka 版本命名规则正式从 4 位
Kafka 目前总共演进了 7 个大版本,分别是 0.7、0.8、0.9、0.10、0.11、1.0 和 2.0
0.7版本:只提供了最基本的消息队列功能
0.8版本:引入了副本机制,至此Kafka成为了一个真正意义上完备的分布式高可靠消息队列解决方案
0.9.0.0版本:增加了基础的安全认证/权限功能;使用Java重写了新版本消费者API;引入了Kafka Connect组件
0.10.0.0版本:引入Kafka Streams,正式升级成分布式流处理平台
0.11.0.0版本:提供了幂等性Producer API以及事务API;对Kafka消息格式做了重构
1.0和2.0版本:主要还是Kafka Streams的各种改进
二、Kafka 基础
消息系统的作用
应该大部份小伙伴都清楚,用机油装箱举个例子
所以消息系统就是如上图我们所说的仓库,能在中间过程作为缓存,并且实现解耦合的作用。
引入一个场景,我们知道中国移动,中国联通,中国电信的日志处理,是交给外包去做大数据分析的,假设现在它们的日志都交给了你做的系统去做用户画像分析。
按照刚刚前面提到的消息系统的作用,我们知道了消息系统其实就是一个模拟缓存,且仅仅是起到了缓存的作用而并不是真正的缓存,数据仍然是存储在磁盘上面而不是内存。
1.Topic 主题
kafka 学习了数据库里面的设计,在里面设计了topic(主题),这个东西类似于关系型数据库的表。
此时我需要获取中国移动的数据,那就直接监听 TopicA 即可
2.Partition 分区
kafka还有一个概念叫Partition(分区),分区具体在服务器上面表现起初就是一个目录,一个主题下面有多个分区,这些分区会存储到不同的服务器上面,或者说,其实就是在不同的主机上建了不同的目录。这些分区主要的信息就存在了.log文件里面。跟数据库里面的分区差不多,是为了提高性能。
至于为什么提高了性能,很简单,多个分区多个线程,多个线程并行处理肯定会比单线程好得多
Topic 和 partition 像是 HBASE 里的 table 和 region 的概念,table 只是一个逻辑上的概念,真正存储数据的是 region,这些 region 会分布式地存储在各个服务器上面,对应于kafka,也是一样,Topic 也是逻辑概念,而 partition 就是分布式存储单元。
这个设计是保证了海量数据处理的基础。我们可以对比一下,如果 HDFS 没有 block 的设计,一个 100T 的文件也只能单独放在一个服务器上面,那就直接占满整个服务器了,引入 block后,大文件可以分散存储在不同的服务器上。
注意:
-
分区会有单点故障问题,所以我们会为每个分区设置副本数
-
分区的编号是从0开始的
3.Producer - 生产者
往消息系统里面发送数据的就是生产者
4.Consumer - 消费者
从 kafka 里读取数据的就是消费者
5.Message - 消息
kafka 里面的我们处理的数据叫做消息
三、kafka的集群架构
创建一个 TopicA 的主题,3个分区分别存储在不同的服务器,也就是 broker 下面。Topic 是一个逻辑上的概念,并不能直接在图中把 Topic 的相关单元画出
需要注意:kafka在0.8版本以前是没有副本机制的,所以在面对服务器宕机的突发情况时会丢失数据,所以尽量避免使用这个版本之前的kafka
Replica - 副本
kafka 中的 partition 为了保证数据安全,所以每个 partition 可以设置多个副本。
此时我们对分区 0,1,2 分别设置 3 个副本(其实设置两个副本是比较合适的)
而且其实每个副本都是有角色之分的,它们会选取一个副本作为 leader,而其余的作为follower,我们的生产者在发送数据的时候,是直接发送到 leader partition 里面,然后follower partition 会去 leader 那里自行同步数据,消费者消费数据的时候,也是从leader那去消费数据的。
Consumer Group - 消费者组
我们在消费数据时会在代码里面指定一个 group.id,这个 id 代表的是消费组的名字,而且这个 group.id 就算不设置,系统也会默认设置。
conf.setProperty("group.id","tellYourDream")
我们所熟知的一些消息系统一般来说会这样设计,就是只要有一个消费者去消费了消息系统里面的数据,那么其余所有的消费者都不能再去消费这个数据。可是 kafka 并不是这样,比如现在 consumerA 去消费了一个 topicA 里面的数据。
bash
consumerA:
group.id = a
consumerB:
group.id = a
consumerC:
group.id = b
consumerD:
group.id = b
再让 consumerB 也去消费 TopicA 的数据,它是消费不到了,但是我们在 consumerC中重新指定一个另外的 group.id,consumerC 是可以消费到 topicA 的数据的。而consumerD 也是消费不到的,所以在 kafka 中,不同组可有唯一的一个消费者去消费同一主题的数据。
所以消费者组就是让多个消费者并行消费信息而存在的,而且它们不会消费到同一个消息,如下,consumerA,B,C是不会互相干扰的
bash
consumer group:a
consumerA
consumerB
consumerC
如图,因为前面提到过了消费者会直接和leader建立联系,所以它们分别消费了三个leader,所以一个分区不会让消费者组里面的多个消费者去消费,但是在消费者不饱和的情况下,一个消费者是可以去消费多个分区的数据的。
Controller
熟知一个规律:在大数据分布式文件系统里面,95%的都是主从式的架构,个别是对等式的架构,比如 ElasticSearch。
kafka也是主从式的架构,主节点就叫controller,其余的为从节点,controller是需要和zookeeper 进行配合管理整个kafka集群。
kafka和zookeeper如何配合工作
kafka严重依赖于zookeeper集群(所以之前的zookeeper文章还是有点用的)。所有的broker在启动的时候都会往zookeeper进行注册,目的就是选举出一个controller,这个选举过程非常简单粗暴,就是一个谁先谁当的过程,不涉及什么算法问题。
那成为controller之后要做啥呢,它会监听zookeeper里面的多个目录,例如有一个目录/brokers/,其他从节点往这个目录上**注册(就是往这个目录上创建属于自己的子目录而已)**自己,这时命名规则一般是它们的id编号,比如/brokers/0,1,2
注册时各个节点必定会暴露自己的主机名,端口号等等的信息,此时controller就要去读取注册上来的从节点的数据(通过监听机制),生成集群的元数据信息,之后把这些信息都分发给其他的服务器,让其他服务器能感知到集群中其它成员的存在。
此时模拟一个场景,我们创建一个主题(其实就是在zookeeper上/topics/topicA这样创建一个目录而已),kafka会把分区方案生成在这个目录中,此时controller就监听到了这一改变,它会去同步这个目录的元信息,然后同样下放给它的从节点,通过这个方法让整个集群都得知这个分区方案,此时从节点就各自创建好目录等待创建分区副本即可。这也是整个集群的管理机制。
四、加餐时间
1.Kafka性能好在什么地方?
① 顺序写
操作系统每次从磁盘读写数据的时候,需要先寻址,也就是先要找到数据在磁盘上的物理位置,然后再进行数据读写,如果是机械硬盘,寻址就需要较长的时间。
kafka的设计中,数据其实是存储在磁盘上面,一般来说,会把数据存储在内存上面性能才会好。但是kafka用的是顺序写,追加数据是追加到末尾,磁盘顺序写的性能极高,在磁盘个数一定,转数达到一定的情况下,基本和内存速度一致随机写的话是在文件的某个位置修改数据,性能会较低。
② 零拷贝
先来看看非零拷贝的情况
可以看到数据的拷贝从内存拷贝到 kafka 服务进程那块,又拷贝到socket缓存那块,整个过程耗费的时间比较高,kafka 利用了 Linux 的 sendFile 技术(NIO),省去了进程切换和一次数据拷贝,让性能变得更好。
2.日志分段存储
Kafka规定了一个分区内的.log文件最大为1G,做这个限制目的是为了方便把.log加载到内存去操作
bash
00000000000000000000.index
00000000000000000000.log
00000000000000000000.timeindex
00000000000005367851.index
00000000000005367851.log
00000000000005367851.timeindex
00000000000009936472.index
00000000000009936472.log
00000000000009936472.timeindex
3.Kafka的网络设计
kafka的网络设计和Kafka的调优有关,这也是为什么它能支持高并发的原因
首先客户端发送请求全部会先发送给一个Acceptor,broker里面会存在3个线程(默认是3个),这3个线程都是叫做processor,Acceptor不会对客户端的请求做任何的处理,直接封装成一个个socketChannel发送给这些processor形成一个队列,发送的方式是轮询,就是先给第一个processor发送,然后再给第二个,第三个,然后又回到第一个。消费者线程去消费这些socketChannel时,会获取一个个request请求,这些request请求中就会伴随着数据。
线程池里面默认有8个线程,这些线程是用来处理request的,解析请求,如果request是写请求,就写到磁盘里。读的话返回结果。processor会从response中读取响应数据,然后再返回给客户端。这就是Kafka的网络三层架构。
所以如果我们需要对kafka进行增强调优,增加processor并增加线程池里面的处理线程,就可以达到效果。request和response那一块部分其实就是起到了一个缓存的效果,是考虑到processor们生成请求太快,线程数不够不能及时处理的问题。
所以这就是一个加强版的reactor网络线程模型。
五、 Kafka集群部署
1. 部署方案
操作系统、磁盘、磁盘容量和带宽
A. 操作系统
kafka支持Linux、Windows 和 macOS的服务端部署,但一般选择Linux作为服务器部署(I/O 模型、数据网络传输效率、社区支持度)
上 Kafka 客户端底层使用了 Java 的 selector,selector 在 Linux 上的实现机制是 epoll,而在 Windows 平台上的实现机制是 select。因此在这一点上将 Kafka 部署在 Linux 上是有优势的,因为能够获得更高效的 I/O 性能。
Kafka 需要在磁盘和网络间进行大量数据传输。Linux 部署 Kafka 能够享受到零拷贝技术(Zero Copy,当数据在磁盘和网络进行传输时避免昂贵的内核态数据拷贝从而实现快速的数据传输)所带来的快速数据传输特性。
B. 磁盘
- 机械硬盘:使用的方式多是顺序读写操作,SSD没有太大的性能优势,Kafka 在软件层面提供机制来保证可靠性
- 磁盘阵列(RAID):提供冗余的磁盘存储空间提供负载均衡
C. 磁盘容量
新增消息数消息留存时间平均消息大小备份数是否启用压缩
D. 带宽
- 使用带宽资源的70%
- 预留2/3带宽资源
- 与其说是带宽资源的规划,其实真正要规划的是所需的 Kafka 服务器的数量 机器数 = 处理数据量/可用资源 * 3
2. 最重要的集群参数配置
(1) Broker端参数
- 与存储信息相关的参数:
logdirs
和logdir
- 与ZooKeeper相关的参数:
zookeeper.connect
。 - 与Broker连接相关的参数:
listeners
、advertised.lis- teners
和hostname/port
- 关于Topic管理的参数:
auto.createtopicsenable
、unclean.leaderelection.enable
和auto.leader.rebal- anceenable
- 关于数据留存的参数:
log.retention.{hours minutes ms}
、log.retention.bytes
和message.maxbytes
。
(2) Topic级别参数
retentionms
:规定了该Topic消息被保存的时长reten-tionbytes
:规定了要为该Topic预留多大的磁盘空间maxmessage.bytes
:决定了KafkaBroker能够正常接收该Topic的最大消息大小
(3) JVM参数
- 指定堆大小:
KAFKA_HEAP_OPTS
- 指定GC参数:
KAFKA_JVM_PERFORMANCE_OPTS
:
(4) 操作系统参数
- 文件描述符限制
- 文件系统类型
- Swappiness
- 提交时间
六、客户端实践与原理解析
1. 生产者消息分区机制原理
Kafka的主题(Topic)是承载真实数据的逻辑容器,主题之下还分为若干个分区,Kafka消息组织方式实际上是三级结构:主题-分区-消息。主题下的每条消息只会在某一个分区中,而不会在多个分区中被保存多份。
(1) 产生原因
- 使用分区的作用就是提供负载均衡的能力,对数据进行分区的主要目的就是为了实现系统的高伸缩性(Scalability)。不同的分区能够放在不同的节点的机器上,而数据的读写操作也都是针对分区这个粒度进行的,每个节点的机器都能独立地执行各自分区读写请求。我们还可以通过增加节点来提升整体系统的吞吐量。
- 可以实现业务级别的消息顺序的问题。
(2) 分区策略
分区策略是指决定生产者将消息发送到那个分区的算法。
Kafka提供了默认的分区策略是 轮询,同时kafka也支持用户自己制定。
常见的分区策略:
- 轮询:也称为Round-robin策略,即顺序分配。轮询的优点是有着优秀的负载均衡的表现
- 随机策略:虽然也是追求负载均衡,但总体表现差于轮询。如果追求数据的均匀分布,推荐使用轮询策略
- 按消息键保序策略 :为每条消息配置一个key,按消息的key来存。
- Kafka允许为每条消息指定一个key。一旦指定了key ,就可以将相同的key存入相同的分区中,而且每个分区下的消息都是有序的。
- key的作用很大,可以是一个有着明确业务含义的字符串,也可以是用来表征消息的元数据。
- 其他的分区策略:基于地理位置的分区。
(3) 小结
分区是实现负载均衡,系统伸缩性,进而实现Kafka高吞吐量的重要机制。在搭建时就应当仔细的规划生产者端的分区策略,避免数据倾斜,使得某些分区成为性能瓶颈,这样极易引发下游消费数据的性能下降。
2. 生产者压缩算法
压缩秉承了用时间换空间的经典trade-off思想,即用CPU的时间去换取磁盘空间或网络I/O传输量,Kafka的压缩算法也是出于这种目的。
(1) 如何压缩
了解Kafka如何压缩消息,首先要清楚Kafka的消息格式,目前kafka有两大类消息格式,社区称之为V1版本和V2版本。
A:共同点
- Kafka的消息层次分为:消息集合(message set)和消息(message);一个消息集合中包含若干条日志项(record item),而日志项才是真正封装消息的地方。
- Kafka底层的消息日志由一系列消息集合日志项组成。Kafka通常不会直接操作具体的一条条消息,他总是在消息集合这个层面上进行写入操作。
B:不同点:引入V2的目的主要是针对V1版本的一些弊端做了修正
- 把消息的公共部分抽取出来放到外层集合里。 如:在V1中每条消息都要执行CRC校验(循环冗余校验),有些情况下消息的CRC值会变,对每条消息都执行CRC校验,不仅浪费空间还耽误CUP时间。
- 报存压缩消息的方法发生了变化
- v1把多条消息进行压缩后在保存到外层消息的消息体字段中
- v2 对整个消息集合进行压缩,压缩效果好与前者
(2) 何时压缩
在kafka中可能发生压缩的地方:生产者端和Broker端
A:生产者端:配置compression.type参数即表示指定类型的压缩算法。
B:有两种情况会样Broker端也可能进行压缩
- Broker端指定了和Producer端不同的压缩算法,这会导致Broker端接收到生产者发来的压缩消息,Broker端重新解压、在压缩。
- Broker端发生了消息格式转换,这种转换主要是为了兼容老版本的消费者程序,(v1和v2的差别)。这个过程会涉及消息的解压和重新压缩。这不仅对性能影响很大,还会让Kafka丧失引以为豪的Zero Copy特性。
(3) 何时解压
通常情况下解压发生在消费者端。
A:这个流程是Producer发送的压缩消息到Broker,Broker原封不动的保存起来,当Consumer程序请求这部分消息时,Broker原样发出去,当下消息到的Consumer端后,由Consumer自行解压。
B:Consume之所以知道这些消息是用何种压缩算法的,是因为Kafka会将启用了哪种压缩算法封装到消息集合中,当Consumer读取到消息集合时,就会知道消息所使用的压缩算法。
(4) 压缩算法对比
在Kafka2.1.0版本之前,仅支持GZIP,Snappy和LZ4。2.1.0后还支持Zstandard算法(Facebook开源,能够提供超高压缩比)
A:一个压缩算法的优劣,有两个重要指标:压缩比和压缩/解压缩吞吐量,两者都是越高越好。
B:吞吐量:LZ4>Snappy>zstd和GZIP,压缩比:zstd>LZ4>GZIP>Snappy
(5) 最佳实践
- 启用压缩的一个条件是Producer端所在机器CPU资源充裕
- 生产环境网络带宽资源有限
- 尽量不要出现消息格式转换的情况
3. 无消息丢失配置实现
(1) 什么是不丢失
Kafka只对"已提交"的消息(committed message)做有限度持久化保证。 A:"已提交"的定义:Kafka的若干个(可自定义配置为一个或全部)Broker成功接收到,并写入日志后即为以成功提交。 B:有限度的持久化保证:kafka的消息不丢失的前提是N个Broker中至少有一个存活。
(2) 消息丢失场景
A:生产者丢失消息: (1):Kafka Producer是异步发送消息,使用producer.send(msg)发送消息,可以立即得到响应,但不能确定是否真的发送成功。 (2):网络抖动,消息本身不合格都会导致Broker无法正常接收消息 解决:使用带有回调的producer.send(msg,callback),回调可以准确的告诉我们消息是否真的发送成功。
B:消费者丢失消息: (1)Consumer端的位移数据出现异常,导致消息被略过 解决:先消费消息,在更新位移记录(这个可能会导致重复消费问题) (2)多个Consumer实例同时消费,但部分实例消费失败,原因是每个确认消息是否成功消费,位移数据就已经被更新。 解决:如果是多线程异步处理消费消息,consumer,程序就不要开启自动提交位移,让应用程序手动提交。
(3) 最佳实践
A:使用带回调通知的方法,发送消息
B:Producer端设置相关参数:
- 设置acks=all,表示所有副本Broker都要接收到该消息,才算提交成功。
- 设置retries>0,表示Producer能够自动重试消息发送,避免消息丢失。
C:Broker端设置相关参数:
- 设置unclean.leader.election.enable = false,控制Broker有资格竞选分区的leader,禁止落后原Leader的太多Broker参加竞选,避免成为新的Leader,造成消息丢失。
- 设置 replication.factor >=3,表示将消息多备份几份。
- 设置 min.insync.replicas >1,控制消息至少要被写入到多少个副本才算是"已提交"。这个设置成大于1可以提升消息持久性。生产环境不可以设置为默认值1。
- 设置replication.factor = min.insync.replicas + 1, 确保replication.factor>min.insync.replicas,若两者相等,那么只要有一个副本挂机,整个分区都无法正常工作。
D:Consumer端设置相关参数:
设置enable.auto.commit=false,表示关闭自动提交,使用手动提交位移方式。
4. Kafka拦截器
(1) 什么是拦截器
拦截器:允许应用程序在不修改逻辑的情况下,动态地实现一组可插拔的事件处理逻辑链。它能够在主业务操作的前后多个时间点上插入对应的"拦截"逻辑。
Kafka 拦截器分为生产者拦截器和消费者拦截器。
生产者拦截器允许你在发送消息前以及消息提交成功后植入你的拦截器逻辑;而消费者拦截器支持在消费消息前以及提交位移后编写特定逻辑。这两种拦截器都支持链的方式,Kafka 会按照添加顺序依次执行拦截器逻辑。
(2) 典型使用场景
Kafka 拦截器可以应用于包括客户端监控、端到端系统性能检测、消息审计等多种功能在内的场景。
计算消息从 Producer 端到 Consumer 端平均的处理延时
A. 实现生产者拦截器:
java
public class AvgLatencyProducerInterceptor implements ProducerInterceptor<String, String> {
private Jedis jedis; // 省略Jedis初始化
@Override
public ProducerRecord<String, String> onSend(ProducerRecord<String, String> record) {
//在发送消息前更新总的已发送消息数
jedis.incr("totalSentMessage");
return record;
}
@Override
public void onAcknowledgement(RecordMetadata metadata, Exception exception) {
}
@Override
public void close() {
}
@Override
public void configure(Map<java.lang.String, ?> configs) {
}
}
B. 实现消费者拦截器:
java
public class AvgLatencyConsumerInterceptor implements ConsumerInterceptor<String, String> {
private Jedis jedis; //省略Jedis初始化
@Override
public ConsumerRecords<String, String> onConsume(ConsumerRecords<String, String> records) {
long lantency = 0L;
//在真正消费一批消息前首先更新它们的总延时
for (ConsumerRecord<String, String> record : records) {
lantency += (System.currentTimeMillis() - record.timestamp());
}
//累计得到这批消息总的端到端处理延时并更新到Redis中
jedis.incrBy("totalLatency", lantency);
long totalLatency = Long.parseLong(jedis.get("totalLatency"));
long totalSentMsgs = Long.parseLong(jedis.get("totalSentMessage"));
//总延时和总消息数
jedis.set("avgLatency", String.valueOf(totalLatency / totalSentMsgs));
return records;
}
@Override
public void onCommit(Map<TopicPartition, OffsetAndMetadata> offsets) {
}
@Override
public void close() {
}
@Override
public void configure(Map<String, ?> configs) {
}
}
5. 生产者管理TCP连接
Apache Kafka的所有通信都是基于TCP的。
(1) 为什采用TCP
- TCP拥有一些高级功能,如多路复用请求和同时轮询多个连接的能力。
- 很多编程语言的HTTP库功能相对的比较简陋。
多路复用请求:multiplexing request,是将两个或多个数据合并到底层---物理连接中的过程。TCP的多路复用请求会在一条物理连接上创建若干个虚拟连接,每个虚拟连接负责流转各自对应的数据流。 严格讲,TCP并不能多路复用,只是提供可靠的消息交付语义保证,如自动重传丢失的报文。
(2) 何时创建TCP连接
A. 在创建KafkaProducer实例时
- 生产者应用会在后台创建并启动一个名为Sender的线程,该Sender线程开始运行时,首先会创建与Broker的连接。
- 此时不知道要连接哪个Broker,kafka会通过METADATA请求获取集群的元数据,连接所有的Broker。
B. 可能在更新元数据后,或在消息发送时
(3) 何时关闭TCP连接
Producer端关闭TCP连接的方式有两种:用户主动关闭、kafka自动关闭
- 用户主动关闭,通过调用producer.close()方关闭,也包括kill -9暴力关闭。
- Kafka自动关闭,这与Producer端参数connection.max.idles.ms的值有关,默认为9分钟,9分钟内没有任何请求流过,就会被自动关闭(该参数可以调整)
kafka自动关闭时,TCP连接是在Broker端被关闭的,但这个连接请求是客户端发起的,对TCP而言这是被动的关闭,被动关闭会产生大量的CLOSE_WAIT连接。
6. Kafka 消息交付可靠性保障
(1) 消息交付可靠性
常见的可靠性保障有三种:
- 最多一次(at most once):消息可能会丢失,但不会被重复发送
- 至少一次(at least once):消息不会丢失,但可能会重复发送
- 精确一次(exactly once):消息不会对丢失,也不会被重复发送
Kafka默认提供交付可靠性保障是至少一次。
Kafka消息交付可靠性保障以及精确处理一次语义通过两种机制来实现的:幂等性(Idempotence)和事务(Transaction)。
(2) 幂等性(Idempotence)
A. 含义及优点
"幂等"原是数学概念,指某些操作或函数能够被执行多次,但每次得到的结果都不变。
计算机领域的含义:
- 在命令式编程语言(如C)中,若一个子程序是幂等的,那它必然不能修改系统状态。无论这个子程序运行多少次,与该子程序的关联的那部分系统保持不变。
- 在函数式编程语言(比如Scala或Haskell)中,很多纯函数(pure function)天然就是幂等的,他们不执行任何的side effect。
幂等性的优点:最大的优势是可以安全地重试任何冥等性操作,因为他们不会破坏系统状态
B. 幂等性Producer:
开启:设置props.put("enable.idempotence",true)或props.put(ProducerConfig.ENABLE_IDEMPOTENC_CONFIG,true)。
特征:开启后,Kafka自动做消息的重复去重。
实现思路:用空间换取时间,Broker端多保存一些字段,当Producer发送了具有相同字段值的消息后,Broker就可以知道这些消息重复,就将这些消息丢弃。
作用范围:
- 只能保证单分区上幂等性,无法实现多个分区的幂等性。
- 只能实现单会话上的冥等性,当Producer重启后,这种幂等性保证就失效了。
(3) 事务(Transaction)
A. 事务概念
- 事务提供的安全性保障是经典的ACID。原子性(Atomicity),一致性(Consistency),隔离性(Isolation),持久性(Durability)。
- kafka的事务机制可以保证多条消息原子性地写入到目标分区,同时也能保证Consumer只能看到事务成功提交的消息。
B. 事务型Producer
开启:
- 设置enable.idempotence = true
- 设置Producer端参数transactional.id。最好为其设置一个有意义的名字
- 调整Producer代码,显示调用事务API
- 设置Consumer端参数 isolation.level 值:
- read_uncommitted(默认值,能够读到kafka写入的任何消息)
- read_committed(Consumer只会读取事务型Producer成功事务写入的消息。)
特征:
- 能够保证将消息原子性地写入到多个分区中。一批消息要么全部成功,要么全部失败。
- 不惧进程重启,Producer重启回来后,kafka依然能保证发送的消息的精确一次处理。
关键事项:
- 幂等性无法实现多个分区以及多会话上的消息无重复,但事务(transaction)或依赖事务型Produce可以做到。
- 开启事务对性能影响很大,在使用时要充分考虑
7. 消费者组
Consumer Group :Kafka提供的可扩展且具有容错性的消息者机制。
(1) 重要特征
A:组内可以有多个消费者实例(Consumer Instance)。
B:消费者组的唯一标识被称为Group ID,组内的消费者共享这个公共的ID。
C:消费者组订阅主题,主题的每个分区只能被组内的一个消费者消费
D:消费者组机制,同时实现了消息队列模型和发布/订阅模型。
(2) 重要问题
A:消费组中的实例与分区的关系
消费者组中的实例个数,最好与订阅主题的分区数相同,否则多出的实例只会被闲置。一个分区只能被一个消费者实例订阅。
B:消费者组的位移管理方式
- 对于Consumer Group而言,位移是一组KV对,Key是分区,V对应Consumer消费该分区的最新位移。
- Kafka的老版本消费者组的位移保存在Zookeeper中,好处是Kafka减少了Kafka Broker端状态保存开销。但ZK是一个分布式的协调框架,不适合进行频繁的写更新,这种大吞吐量的写操作极大的拖慢了Zookeeper集群的性能。
- Kafka的新版本采用了将位移保存在Kafka内部主题的方法。
C:消费者组的重平衡
重平衡:本质上是一种协议,规定了消费者组下的每个消费者如何达成一致,来分配订阅topic下的每个分区。
触发条件:
- 组成员数发生变更
- 订阅主题数发生变更
- 定阅主题分区数发生变更
影响:Rebalance 的设计是要求所有consumer实例共同参与,全部重新分配所有用分区。并且Rebalance的过程比较缓慢,这个过程消息消费会中止。
8. 位移主题
(1) 产生原因
A :老版本的Kafka会把位移信息保存在Zk中,当Consumer重启后,自动从Zk中读取位移信息。这种设计使Kafka Broker不需要保存位移数据,可减少Broker端需要持有的状态空间,有利于实现高伸缩性。
B :zk不适用于高频的写操作,在新版本中将消费者的位移数据作为一条条普通的Kafka消息,提交至内部主题(_consumer_offsets)中保存。实现高持久性和高频写操作。
(2) 特点
A :位移主题是一个普通主题,同样可以被手动创建,修改,删除。。
B :位移主题的消息格式是kafka定义的,不可以被手动修改,若修改格式不正确,kafka将会崩溃。
C :位移主题保存了三部分内容:Group ID,主题名,分区号。
(3) 创建
A :当Kafka集群中的第一个Consumer程序启动时,Kafka会自动创建位移主题。也可以手动创建
B :分区数依赖于Broker端的offsets.topic.num.partitions的取值,默认为50
C :副本数依赖于Broker端的offsets.topic.replication.factor的取值,默认为3
(4) 使用
A :当Kafka提交位移消息时会使用这个主题
B :位移提交得分方式有两种:手动和自动提交位移。
C :推荐使用手动提交位移,自动提交位移会存在问题:只有consumer一直启动设置,他就会无限期地向主题写入消息。
(5) 清理
A :Kafka使用Compact策略来删除位移主题中的过期消息,避免位移主题无限膨胀。
B :kafka提供专门的后台线程定期巡检待compcat的主题,查看是否存在满足条件的可删除数据。
(6) 注意事项
A :建议不要修改默认分区数,在kafka中有些许功能写死的是50个分区
B :建议不要使用自动提交模式,采用手动提交,避免消费者无限制的写入消息。
C :后台定期巡检线程叫Log Cleaner,若线上遇到位移主题无限膨胀占用过多磁盘,应该检查此线程的工作状态。
9. 消费者组的重平衡
(1) 什么是重平衡
A :让一个Consumer Group下所有的consumer实例就如何消费订阅主题的所有分区达成共识的过程。
B :在重平衡过程中,所有Consumer实例共同参与,在协调者组件的帮助下,完成订阅分区的分配。
C :整个过程中,所有实例都不能消费任何消息,因此对Consumer的TPS影响很大
(2) 为什要避免重平衡
A :Rebalance影响Consumer端的TPS,因为重平衡过程中消费者不能消费消息
B :Rebalance很慢,如果有数百个消费者实例,整个过程耗时可能达到几个小时
C :Rebalance效率低,这个过程是全员参与,通常不考虑局部性原理,但局部性原理对系统性能提升特别重要。
D :真实的业务场景中,很多Rebalance都是计划外或是不必要的。
(3) 何时会触发重平衡
A :组成员数量发生变化
B :订阅主题数量发生变化
C :订阅主题分区数发生变化
(4) 要避免哪些重平衡
最常见的是消费者数发生变化触发的重平衡,其他的重平衡是不可避免的,但消费者数量变化是可避免的
A :Consumer实例增加
当启动一个配置相同的group.id值的consumer程序时,就是向这个组中增加一个消费者实例,这中情况一般是我们为了提升消费者端的TPS,是计划内的,所以也不用避免。
B :Consumer实例减少
按计划的减少消费者实例,同样不用避免,而计划外的减少触发的重平衡才是要关注的。
(5) 如何避免重平衡
在某些情况下,Consumer实例会被Coordinateor错误地认为"已停止",进而被踢出Group。这种情况导致的重平衡是需要避免的。
A :Consumer实例不能及时的发送心跳请求
当消费者组完成重平衡后,每个Consumer实例都会定期地向Coordinator发送心跳请求,如这个心跳请求没有被及时发送,Coordinator就会认为该Consumer已经掉线,将其从组中移除,并开启新一轮重平衡。
解决:Consumer端参数设置优化
- Session.timeout.ms:默认为10秒,表示10秒内Coordinator没有收到Group下某个Consumer实例的心跳,就认为实例下线。这个可以适当的增大
- heartbeat.interval.ms:控制发送心跳请求的频率,频繁的发送心跳请求会额外消耗带库资源
- max.poll.interval.ms:限定Consumer端应用程序两次调用poll方法的最大时间间隔。默认值是5分钟,表示如果Consumer程序在5分钟之内无法消费完poll方法返回的消息,那么consumer会主动的发起"离开组"的请求,
建议:session.timeout.ms=6s Heartbeat.interval.ms=2s
保证Consumer实例在判定为"dead"之前,能够发送至少3轮的心跳请求,即session.timeout.ms >=3 * heartbeat.interval.ms。
B :Consumer消费时间过长
消费者端处理了一个很重的消费逻辑,耗时较长,导致Consumer端应用程序两次调用poll方法的时间超出设置的最大时间间隔。
解决:将 max.poll.interval.ms参数设置较大一些;优化消费者端业务逻辑,压缩消费耗时
C :GC影响
Consumer端的GC表现也会导致频繁的重平衡,频繁的Ful GC会导致长时间的断顿。
解决:JVM调优。
10. 位移提交
(1) 概念
概念区分
- Consumer端的位移概念和消息分区的位移概念不是一回事。
- Consumer的消费位移,记录的是Consumer要消费的下一条消息的位移。
提交位移
- Consumer 要向Kafka汇报自己的位移数据,这个汇报过程被称为提交位移(Committing Offsets)。
- Consumer需要为分配给它的每个分区提交各自的位移数据。
(2) 作用及特点
提交位移的作用:
提交位移主要是为了表征Consumer的消费进度,这样当Consumer发生故障重启后,能够从kafka中读取之前提交的位移值,从相应的位置继续消费,避免从头在消费一遍。
**位移提交的特点:**位移提交的语义保障是由你来负责的,Kafka只会"无脑"地接受你提交的位移。位移提交错误,就会消息消费错误。
(2) 位移提交方式
从用户的角度讲,位移提交分为自动提交和手动提交;从Consumer端的角度而言,位移提交分为同步提交和异步提交。
-
自动提交:由Kafka consumer在后台默默的执行提交位移,用户不用管。开启简单,使用方便,但可能会出现重复消费。
-
手动提交 :好处在更加灵活,完全能够把控位移提交的时机和频率。
- 同步提交:在调用commitSync()时,Consumer程序会处于阻塞状态,直到远端Broker返回提交结果,这个状态才会结束。对TPS影响显著
- 异步提交:在调用commitAsync()时,会立即给响应,但是出问题了它不会自动重试。
手动提交最好是同步和异步结合使用,正常用异步提交,如果异步提交失败,用同步提交方式补偿提交。
-
批次提交:对于一次要处理很多消费的Consumer而言,将一个大事务分割成若干个小事务分别提交。这可以有效减少错误恢复的时间,避免大批量的消息重新消费。
更精细化的位移管理:使用commitSync(Map<TopicPartition,Offset>)和commitAsync(Map<TopicPartition,OffsetAndMetadata>)。
11. CommitFailedException异常
A :定义
所谓CommitFailedException,是指Consumer客户端在提交位移时出现了错误或异常,并且并不可恢复的严重异常。
B :产生原因
- 消费者端处理的总时间超过预设的max.poll.interval.ms参数值
- 出现一个Standalone Consumerd的独立消费者,配置的group.id重名冲突。
C :解决方案
- 减少单条消息处理的时间
- 增加Consumer端允许下游系统消费一批消息的最大时长
- 减少下游系统一次性消费的消息总数
- 下游使用多线程加速消费
12. 多线程开发消费者实例
(1) Kafka Java Consumer 单线程设计原理
在Kafka从0.10.1.0版本开始,KafkaConsumer就变成双线程设计即:用户主线程和心跳线程。
- 主线程是指启动Consumer应用程序main方法的那个线程,而新引入的心跳线程只负责定期给对应的Broker机器发送心跳请求,以标识消费者应用的存活性。
- 老版本中有Scala Consumer的API,是多线程架构的,每个Consumer实例在内部为所有订阅的主题分区创建对应消息获取线程,也称为Fetcher线程。老版本Consumer同时也是阻塞式的(blocking),Consumer实例启动后,内部会创建很多阻塞式的消息迭代器。
- 在很多场景下,Consumer端是有非阻塞需求的,如流处理应用中执行过滤(filter),连接(join),分组(group by)等操作时就不能是阻塞式的。
所以,新版本Consumer设计了单线程+轮询的机制。这种设计能够较好的实现非阻塞式的消息获取。
单线程设计优点:
- 单线程可以较好的实现如在流处理应用中执行过滤(filter),连接(join),分组(group by)等操作。
- 单线程能够简化Consumer端设计。Consumer端获取到消息后,处理消息的逻辑是否采用多线程,由自己决定。
- 单线程设计在很多种编程中都比较易于实现,编译社区移植。
(2) 多线程方案
KafkaConsumer类不是线程安全的(thread-safe)。所有的网络I/O处理都是发生在用户主线程中,所以不能在多线程中共享同一个KafkaConsumer实例,否则程序会抛ConcurrentModificationException异常。
方案 | 描述 | 优点 | 缺点 |
---|---|---|---|
方案一 | 消费者程序启动多个线程,每个线程维护专属的KafkaConsumer实例,负责完整的消息获取,消息处理流程。 | 方便实现,速度快,无线程间交互开销,易于维护分区的消息顺序 | 占用更多的系统资源,线程数受限于主题分区数,扩展性差。线程自己处理消息容易超时,进而引发Rebalance |
方案二 | 消费者程序使用单或多线程获取消息,同时创建多个消费线程执行消息处理逻辑。获取消息的线程可以是多个,每个线程维护专属的KafkaConsumer实例,处理消息则交由特定的线程池来做。 | 可独立扩展消费获取线程数和worker线程数,伸缩性好 | 难以维护分区内的消息消费顺序,处理链路拉长,不易于位移提交管理,实现难度高。 |
13. 消费者管理TCP连接
(1) 何时创建
A :消费者和生产者不同,在创建KafkaConsumer实例时不会创建任何TCP连接。
原因:是因为生产者入口类KafkaProducer在构建实例时,会在后台启动一个Sender线程,这个线程是负责Socket连接创建的。
B :TCP连接是在调用KafkaConsumer.poll方法时被创建。在poll方法内部有3个时机创建TCP连接
- 发起findCoordinator请求时创建 Coordinator(协调者)消费者端主键,驻留在Broker端的内存中,负责消费者组的组成员管理和各个消费者的位移提交管理。 当消费者程序首次启动调用poll方法时,它需要向Kafka集群发送一个名为FindCoordinator的请求,确认哪个Broker是管理它的协调者。
- 连接协调者时 Broker处理了消费者发来的FindCoordinator请求后,返回响应显式的告诉消费者哪个Broker是真正的协调者。 当消费者知晓真正的协调者后,会创建连向该Broker的socket连接。 只有成功连入协调者,协调者才能开启正常的组协调操作。
- 消费数据时 消费者会为每个要消费的分区创建与该分区领导者副本所在的Broker连接的TCP.
消费者程序会创建3类TCP连接:
- 第一类:确定协调者和获取集群元数据
- 第二类:连接协调者,令其执行组成员管理操作
- 第三类:执行实际的消息获取
(2) 何时关闭
和生产者相似,消费者关闭Socket也分为主动关闭和Kafka自动关闭。
- 主动关闭指通过KafkaConsumer.close()方法,或者执行kill命令,显示地调用消费者API的方法去关闭消费者。
- 自动关闭指消费者端参数connection.max.idle.ms控制的,默认为9分钟,即如果某个socket连接上连续9分钟都没有任何请求通过,那么消费者会强行杀死这个连接。
若消费者程序中使用了循环的方式来调用poll方法消息消息,以上的请求都会被定期的发送到Broker,所以这些socket连接上总是能保证有请求在发送,从而实现"长连接"的效果。
当第三类TCP连接成功创建后,消费者程序就会废弃第一类TCP连接,之后在定期请求元数据时,会改为使用第三类TCP连接。对于一个运行了一段时间的消费者程序来讲,只会有后面两种的TCP连接。
14. 消费者组消费进度监控
(1) 为什么要监控
A :对于Kafka消费者,最重要的事情就是监控它们的消费进度(消费的滞后程度)常称为:Consumer Lag
B :Lag的单位是消息数,他直接反映了一个消费者的运行情况。一个正常的消费者的Lag应当很小,设置为0。这表明消费者能够及时地消费生产者生产出来的消息。反之,一个消费者Lag值很大的话表明它无法跟上生产者的速度。
C :如果消费者速度无法匹及生产者的数据,极有可能导致它消费的数据已经不在操作系统的页缓存中了,那些数据就失去了享有Zero Copy技术的条件,不得不从磁盘中读取,进一步拉大了与生产者的差距。并且会越来大。
所以,在实际业务场景中必须时刻关注消费者的消费进度。一旦出现Lag逐步增加的趋势,就要立即定位问题,及时处理。
(2) 如何监控
- 使用Kafka自带的命令行工具kafka-consumer-groups脚本
- 使用Kafka Java Conssumer API编程
- 使用Kafka自带的JMX监控指标
(3) 方法分析
A :Kafka自带命令
- kafka-consumer-groups脚本是kafka为我们提供的最直接的监控消费者消费进度工具。
- 使用命令:
bash
$ bin/kafka-consumer-groups.sh --bootstrap-server <Kafka broker连接信息 > --describe --group <group 名称 >
<Kafka broker 连接信息 >:主机:端口
<group 名称 > :要监控的消费组的 group.id值
展示的信息:主题,分区,该消费者组最新消费消息的位移值(CURRENT-OFFSET值),每个分区当前最新生产的消息的位移值(LOG-END-OFFSET),LAG(前两者的差值),消费者实例ID,消费者连接Broker的主机名以及消费者的CLENT-ID信息。
B :Kafka Java Consumer API
- 首先获取给定的消费者组的最新消费消息的位移
- 再获取订阅分区的最新消息位移
- 最后执行相应的减法操作,获取Lag值并封装进一个Map对象。
C :Kafka JMX监控指标
使用Kafka默认提供 的JMX监控指标来监控消费者的Lag值。
- Kafka消费者提供了一个名为Kafka.consumer:type=consumer-fetch-manager-metrics,client-id="{client-id}"的JMX指标。
- 有两个重要的属性:records-lag-max 和 records-lead-min 分别表示消费者在测试窗口时间内曾经达到的最大的Lag值和最小的Lead值。
- Lead值是指消费者最新消费消息的位移和分区当前第一条消息的位移的差值。即:Lag越大,Lead就越小。
六、深入Kafka内核
1. Kafka副本机制
(1) 概念
A. 副本机制:
副本机制(Replication):也称为备份机制,通常是指分布式在多台网络互连的机器上保存有相同的数据拷贝。
好处:提供数据冗余、提供高伸缩性、改善数据局部性(将数据放入与用户地理位置相近的地方)。
Kafka的副本机制,只实现了提供数据冗余的价值。
B. 副本
Kafka有主题的概念,每个主题又分为若干个分区。副本的概念是在分区层级下定义的,每个分区配置有若干个副本。
Kafka的副本(Replica),本质是一个只能追加写消息的提交日志。
根据Kafka副本机制的定义,同一个分区下的所有副本保存有相同的消息序列,这些副本分散保存在不同的Broker上,从而能够一定程度上避免部分Broker宕机带来的数据不可用。
(2) 副本角色
A :为解决分区下多个副本的内容一致性问题,常用方案就是采用基于领导者的副本机制。
B :在kafka中,副本分两类:领导者副本和追随者副本。每个分区在创建时都选举一个副本,称为领导者副本,其余的副本自动成为追随者副本。
C :Kafka的副本机制比其他分布式系统严格。Kafka的追随者副本不对外提供服务。所有的请求都要由领导者副本处理。追随者副本唯一的任务就是从领导者副本异步拉取消息,并写入到自己的提交日志中,从而实现与领导者副本的同步。
Kafka的追随者副本不对外提供服务的原因:
- 方便实现Read-your-writes(当使用生产者 API 向 Kafka 成功写入消息后,马上使用消费者 API 去读取刚才生产的消息);
- 方便实现单调读(对于一个消费者用户而言,在多次消费消息时,不会看到某条消息一会儿存在一会儿不存在)
D :当领导者副本所在Broker宕机了,Kafka依托于Zookeeper提供的监控功能能够实时感知到,并立即开启新一轮的领导者选举,从追随者副本中选一个新的领导者。当老的Leader副本重启回来后,只能作为追随者副本加入到集群中。
基于领导者(Leader-based)的副本机制:
(3) Kafka副本机制的优点
A :方便实现"Read-your-writes"
- Read-your-writes:当使用生产者API向Kafka成功写入消息后,马上使用消息者API去读取刚才生产的消息。
- 如果允许追随者副本对外提供服务,由于副本同步是异步的,就可能因为数据同步时间差,从而使客户端看不到最新写入的消息。
B :方便实现单调读(Monotonic Reads)
- 单调读:对于一个消费者用户而言,在多处消息消息时,他不会看到某条消息一会存在,一会不存在。
- 如果允许追随者副本提供读服务,由于消息是异步的,则多个追随者副本的状态可能不一致。若客户端每次命中的副本不同,就可能出现一条消息一会看到,一会看不到。
(4) In-sync Replicas(ISR)同步副本
A :追随者副本定期的异步拉取领导者副本中的数据,这存在不能和Leader实时同步的风险。
B :Kafka引入了In-sync Replicas。ISR中的副本都是于Leader同步的副本,相反,不在ISR中的追随者副本就是被认为是与Leader不同步的。
C :Leader 副本天然就在ISR中,即ISR不只是追随者副本集合,他必然包括Leader副本。甚至某些情况下,ISR只有Leade这一个副本。
D :follower副本是否与leader同步的判断标准取决于Broker端参数 replica.lag.time.max.ms参数值。默认为10秒,只要一个Follower副本落后Leader副本的时间不连续超过10秒,那么Kafka就认为该Follower副本与leader是同步的,即使此时Follower副本中保存的消息明显小于Leader副本中的消息。
E :如果同步过程持续慢于Leader副本消息的写入速度,那么replica.lag.time.max.ms时间后,此Follower副本就会被认为是与Leader副本不同步的,因此不能再放入ISR中。此时,kafka会自动收缩ISR的进度,将该副本"踢出"ISR。ISR是一个动态调整的集合,而非静态不变的。
(5) Unclean 领导者选举(Unclean Leader Election)
A :ISR是可以动态调整的,所以会出现ISR为空的情况,由于Leader副本天然就在ISR中,如果ISR为空了,这说明Leader副本也挂掉了,Kafka需要重新选举一个新的Leader。
B :Kafka把所有不在ISR中的存活副本都会称为非同步副本。通常,非同步副本落后Leader太多,如果让这些副本做为新的Leader,就可能出现数据的丢失。在kafka中,选举这种副本的过程称为Unclean领导者选举。
C :Broker端参数unclean.leader.election.enable 控制是否允许Unclean领导者选举。开启Unclean领导者选举可能会造成数据丢失,但它使得分区Leader副本一直存在,不至于停止对外提供服务,因此提升了高可用性。禁止Unclean领导者选举的好处是在于维护了数据的一致性,避免了消息丢失,但牺牲了高可用性。
2. 请求处理流程解析
Apache Kafka 自己定义了组请求协议,用于实现各种交互操作。常见有:
- PRODUCE 请求:用于生产消息
- FETCH请求:用于消费消息
- METADATA请求:用于请求Kafka集群元数据信息
Kafka定义了很多类似的请求格式,所有的请求都是通过TCP网络以Socket的方式进行通讯的。
(1) Broker端的请求处理流程
A :常用请求处理方案
- 顺序处理请求:实现方法简答,但吞吐量太差是致命缺陷。每个请求都必须等待前一个请求处理完毕才能得到处理。适用于请求发送非常不频繁的系统。
- 每个请求使用单独线程处理:完全异步的,每个请求的处理都创建单独线程处理,但缺陷明显,为每个请求都创建线程开销极大,某些场景甚至会压垮整个服务。
B :Kafka的方案:使用Reactor模式
- Reactor模式是JUC包作者的作品
- Reactor模式是事件驱动架构的一种实现方式,特别适应用于处理多个客户端并发向服务端发送请求的场景。
(2) Kafka的请求处理方式
A :Reactor模式中,多个客户端发送请求到Reactor,Reactor中的请求分发线程Dispatcher会将不同的请求下发到多个工作线程
Acceptor线程只用于请求分发,不涉及具体逻辑处理,因此有很高的吞吐量。而工作线程可以根据实际业务处理需要任意增减,从而动态调节系统负载能力。
B :kakfa中,Broker端有个SocketServer组件,类似于Reactor模式中的Dispatcher,他也有对应的Acceptor线程和一个工作线程池,在kafka中,被称为网络线程池
Broker端参数num.network.threads,用于调整该网络线程池的线程数,默认为4,表示每台Broker启动时,会创建3个网络线程,专门处理客户端发送的请求。
C :Acceptor线程采用轮询的方式将入站请求公平的发送到所有网络线程中。
D :当网络线程接收到请求后,Kafka在这个环节又做了一层异步线程池的处理
- 当网络线程拿到请求后,不是自己处理,而是将请求放入到一个共享请求队列中。
- Broker端有个IO线程池,负责从该队列中取出请求,执行真正的处理。如果是PRODUCE生产请求,则将消息写入到底层的磁盘日志中;如果是FETCH请求,则从磁盘或页缓存中读取消息。
E :IO线程池中的线程是执行请求逻辑的线程。Broker端参数num.io.threads控制了这个线程数,默认为8,表示每台Broker启动后自动创建8个IO线程处理请求。
F :请求队列是所有网络线程共享的,而响应队列则是每个网络线程专属的。原因在于Dispatcher只是用于请求分发而不负责响应回传,因此只能让每个网络线程自己发送Repsone给客户端,所有这些Response没必要放在一个公共的地方。
G :Purgatory组件,专门用来缓存延时请求(Delayed Requset)。
如设置了acks=all的PRODUCE请求,该请求要必须等待ISR中所有副本都接收了消息后才能返回,此时处理该请求的IO线程就必须瞪大其他Broker的写入结果。当请求不能立即处理时,他就会暂存在Purgatory中。待满足了完成条件,IO线程会继续处理该请求,并将Response放入到对应的网络线程的响应队列中
(3) Kafka对请求的处理特点
- Kafka Broker对所有的请求都是一视同仁的
- 这些请求根据功能,可分为不同的请求类型。从业务的权重角度来讲,是有高低之分的,如控制类请求可以影响数据类请求。
- 无原则的平等,会造成混乱
社区采取的方案是,同时创建两套完全样的组件,实现两类请求的分离。
3. 重平衡流程解析
(1) 重平衡的通知
A :重平衡过程通过消息者端的心跳线程(Heartbeat Thread)通知到其他消费者实例。
B :Kafka Java消费者需要定期地发送心跳请求到Broker端的协调者,以表明它还存活着。
- 在kafka 0.10.1.0版本之前,发送心跳请求和消息处理逻辑是在消费者主线程完成的,也就是代码中调用KafkaConsumer.poll方法的那个线程。一旦消息处理消耗了过长的时间,心跳请求将无法及时发到协调者那里,导致协调者错判消费者已死。
- 在此版本后,kafka社区引入了单独的心跳线程来专门执行心跳请求发送,避免这个问题。
C :重平衡的通知机制是通过心跳线程来完成的,当协调者决定开启新一轮重平衡后,他会将"REBALANCE_IN_PROGRESS"封装进心跳请求的响应中,发还给消费者实例。当消费者实例发现心跳响应中包含了"REBALANCE_IN_PROGRESS",就能立即知道重平衡开始了。
D :消费者端的参数 heartbeat.interval.ms的真实用途是控制重平衡通知的频率。
(2) 消费者组状态机
Kafka设计了一套消费者组状态机(State Machine),帮助协调者完成整个重平衡流程。
A :kafka消费者组状态
(1)Empty:组内没有任何成员,但消费者组可能存在已提交的位移数据,而且这些位移尚未过期。
(2)Dead:组内没有任何成员,但组的元数据信息已经在协调者端被移除。协调者保存着当前向它注册过的所有组信息,所谓元数据就是类似于这些注册信息。
(3)PreparingRebalance:消费者组准备开启重平衡,此时所有成员都要重新请求加消费者组
(4)CompletingRebalance:消费者组下所有成员已经加入,各个成员正在等待分配方案。
(5)Stable:消费者组的稳定状态。该状态表明重平衡已经完成,组内成员能够正常消费数据了。
B :Kafka定期自动删除过期位移的条件:消费者处于Empty状态。
如果消费者组停了很长时间(超过7天),那么Kafka很可能就把该组的位移数据删除了。
(3) 消费者端重平衡流程
A :重平衡的完整流程需要消费者端和协调者组件共同参与才能完成。
B :在消费者端,重平衡分为两个步骤:
- 加入组,对应请求:JoinGroup请求
- 等待领导者消费者分配方案:SyncGroup请求
C :当组内成员加入组时,他会向协调者发送JoinGroup请求。在该请求中,每个成员都要将自己订阅的主题上报,这样协调者就能收集到所有成员的订阅信息。一旦收集了全部成员的JoinGroup请求后,协调者会从这些成员中选择一个担任这个消费者组的领导者。
D :通常情况下,第一个发送JoinGroup 请求的成员自动成为领导者。这里的领导者是具体的消费者实例,它既不是副本,也不是协调者。领导者消费者的任务是收集所有成员的订阅信息,然后根据这些信息,制定具体的分区消费分配方案。
E :选出领导者之后,协调者会把消费者组订阅信息封装进JoinGroup请求的响应中,然后发给领导者,由领导统一做出分配方案后,进入下一步:发送SyncGroup请求。
F :领导者向协调者发送SyncGroup请求,将刚刚做出的分配方案发给协调者。值得注意的是,其他成员也会向协调者发送SyncGroup请求,只是请求体中并没有实际内容。这一步的目的是让协调者接收分配方案,然后统一以SyncGroup 响应的方式发给所有成员,这样组内成员就都知道自己该消费哪些分区了。
(4) Broker端重平衡场景剖析
A :新成员入组
当协调者收到新的JoinGroup请求后,它会通过心跳请求响应的方式通知组内现有的所有成员,强制他们开启新一轮的重平衡。
B :组成员主动离组
消费者实例所在线程或进程调用close()方法主动通知协调者他要退出。这个场景涉及第三类请求:LeaveGroup请求。协调者收到LeaveGroup请求后,依然会以心跳响应的方式通知其他成员。
C :组成员崩溃离组
崩溃离组是指消费者实例出现严重故障,突然宕机导致的离组。崩溃离组是被动的,协调者通常需要等待一段时间才能感知,这段时间一般是由消费者端参数session.timeout.ms控制的。
D :重平衡时协调者对组内成员提交位移的处理
正常情况下,每个组内成员都会定期汇报位移给协调者。当重平衡开启时,协调者会给予成员一段缓冲时间,要求每个成员必须在这段时间内快速地上报自己的位移信息,然后在开启正常JoinGroup/SyncGroup请求发送。
4. Kafka控制器
(1) 简介
控制器组件(Controller),是Apache Kafka的核心组件。它的主要作用是Apache Zookeeper的帮助下管理和协调整个Kafka集群。 集群中任意一台Broker都能充当控制器的角色,但在运行过程中,只能有一个Broker成为控制器。
特点:控制器是重度依赖Zookeeper。
产生:控制器是被选出来的,Broker在启动时,会尝试去Zookeeper中创建/controller节点。Kafka当前选举控制器的规则是:第一个成功创建/controller节点的Broker会被指定为控制器。
(2) 功能
A :主题管理(创建,删除,增加分区)
当执行kafka-topics脚本时,大部分的后台工作都是控制器来完成的。
B :分区重分配
Kafka-reassign-partitions脚本提供的对已有主题分区进行细粒度的分配功能。
C :Preferred领导者选举
Preferred领导者选举主要是Kafka为了避免部分Broker负载过重而提供的一种换Leade的方案。
D :集群成员管理(新增Broker,Broker主动关闭,Broker宕机)
控制器组件会利用watch机制检查Zookeeper的/brokers/ids节点下的子节点数量变更。当有新Broker启动后,它会在/brokers下创建专属的znode节点。一旦创建完毕,Zookeeper会通过Watch机制将消息通知推送给控制器,这样,控制器就能自动地感知到这个变化。进而开启后续新增Broker作业。
侦测Broker存活性则是依赖于刚刚提到的另一个机制:临时节点。每个Broker启动后,会在/brokers/ids下创建一个临时的znode。当Broker宕机或主机关闭后,该Broker与Zookeeper的会话结束,这个znode会被自动删除。同理,Zookeeper的Watch机制将这一变更推送给控制器,这样控制器就能知道有Broker关闭或宕机了,从而进行善后。
E :数据服务
控制器上保存了最全的集群元数据信息,其他所有Broker会定期接收控制器发来的元数据更新请求,从而更新其内存中的缓存数据。
(3) 数据保存与故障转移
A. 控制器数据保存:控制器中保存的这些数据在Zookeeper中也保存了一份。每当控制器初始化时,它都会从Zookeeper上读取对应的元数据并填充到自己的缓存中。
B. 控制器故障转移(Failover):当运行中的控制器突然宕机或意外终止时,Kafka能够快速地感知到,并立即启用备用控制器来替代之前失败的控制器。
(4) 内部设计原理
A :控制器的多线程设计
控制器是多线程的设计,会在内部创建很多线程。如:
- 为每个Broker创建一个对应的Socket连接,然后在创建一个专属的线程,用于向这些Broker发送特定的请求。
- 控制连接zookeeper,也会创建单独的线程来处理Watch机制通知回调。
- 控制器还会为主题删除创建额外的I/O线程。
这些线程还会访问共享的控制器缓存数据,为了维护数据安全性,控制在代码中大量使用ReetrantLock同步机制,进一步拖慢了整个控制器的处理速度。
B :在0.11版对控制器的低沉设计进了重构
第一个改进(最大改进):把多线程的方案改成了单线程加事件对列的方案。
- 单线程+队列的实现方式:社区引入了一个事件处理线程,统一处理各种控制器事件,然后控制器将原来执行的操作全部建模成一个个独立的事件,发送到专属的事件队列中,供此线程消费。
- 单线程不代表之前提到的所有线程都被干掉了,控制器只是把缓存状态变更方面的工作委托给了这个线程而已。
第二个改进:将之前同步操作Zookeeper全部改为异步操作。
Zookeeper本身的API提供了同步写和异步写两种方式。同步操作zk,在有大量主题分区发生变更时,Zookeeper容易成为系统的瓶颈。
5. 高水位和Leader Epoch
(1) 概念
A :水位:多用于流式处理领域,如Spark Streaming 或Flink框架中都有水位的概念。
在教科书中关于水位定义:在即刻T,任意创建时间(Event Time)为T ' ,且T ' <= T的所有事件都已经到达或被观测到,那么T就被定义为水位。在《Streaming System》一书则是这样表述水位:水位是一个单调增加且表征最早未完成工作(oldest work not yet completed)的时间戳。
B :kafka的水位概念:kafka的水位不是时间戳,与时间无关。他是和位置信息绑定的,它是用消息位移来表征的。 Kafka源码使用的表述是高水位。在Kafka中也有低水位(Low Watermark),它是与Kafka删除消息相关的概念。
(2) 高水位作用
- 定义消息可见性,用来标识分区下的哪些消息是可以被消费者消费的。
- 帮助Kafka完成副本同步。
关键点:
- 在分区高水位以下的消息被认为是已提交消息,反之就是未提交消息。
- 消费者只能消费已提交消息
- 事务机制会影响消息者所能看到的消息的范围,他不只是简单依赖高水位来判断,还依靠一个名为LSO(Log Stable Offset)的位移值来判断事务型消费者的可见性。
- 位移值等于高水位的消息也属于为提交消息。即,高水位消息的消息是不能被消费者消费的。
- 日志末端位移的概念:Log End Offset,简写是LEO。他表示副本写入下一条消息的位移值。同一个副本对象,其高水位值不会大于LEO值。
- 高水位和LEO是副本对象的两个重要属性。Kafka所有副本都有对应的高水位和LEO值,而不仅仅是Leader副本。只是Leader副本比较特殊,Kafka使用Leader副本的高水位来定义所在分区的高水位。即,分区的高水位就是其Leader副本的高水位。
(3) 高水位更新机制
在Leader副本所在Broker上,还保存了其他Follower副本的LEO值。而其他Broker上仅仅保存该分区的某个Follower副本。Kafka将Leader副本所在Broker上保存的这些Follower副本称为远程副本。
Kafka副本机制在运行过程中,会更新Broker1上Follower副本的高水位和LEO值,同时也会更新Broker0上Leader副本的高水位和LEO,以及所有远程副本的LEO。但它不会更新远程副本的高水位值。Broker0上保存这些远程副本的作用是帮助Leader副本确定其高水位,即分区高水位。
A. Leader副本上的更新机制
处理生产者请求的逻辑:
a. 写入消息到本地磁盘。
b. 更新分区高水位值
-
获取Leader副本所在Broker端保存的所有远程副本LEO值{LEO-1,LEO-2,......,LEO-n}。
-
获取Leader副本高水位值:currentHW。
-
更新currentHW = max(currentHW ,min(leo-1,leo-2,......leo-n)).
处理follwer副本拉取消息的逻辑:
a. 读取磁盘(或页缓存)中的消息数据
b. 使用Follower副本发送请求中的位移值更新远程副本LEO值。
c. 更新分区高水位值(具体步骤与处理生产者请求的步骤相同)
B. Follower副本上的更新机制
从Leader拉取消息的处理逻辑:
a. 写入消息到本地磁盘
b. 更新LEO值
c. 更新高水位值
-
获取Leader发送的高水位值:currentHW。
-
获取步骤2中更新过的LEO值:currentLEO。
-
更新高水位为min(currentHW,currentLEO)。
(4) Leader Epoch
Leader Epoch:用来规避因高水位更新错配导致的各种不一种问题。所谓Leader Epoch大致可以认为是Leader版本。
A :组成:由两部分数据组成。
- Epoch:一个单调增加的版本号。每当领导权发生变更时,都会增加该版本号。小版本号的Leader被认为是过期的Leader,不能在行使Leader权利。
- 起始位移(Start Offset):Leader副本在改Epoch值上写入的首条消息的位移。
B :Kafka Broker会在内存中为每个分区都缓存Leader Epoch数据,同时他还会定期地将这些信息持久化到一个checkpoint文件中。
七 、 管理与监控
1. 主题管理
(1) 创建主题
Kafka提供了自带的Kafka-topic脚本用于帮助用户创建主题。
bash
bin/kafka-topic.sh --bootstarp-server broker_host:port --create --topic my_topic --partitions 1 --replication-factor 1
create 表明要创建主题的行为,而partitions和replication factor分别设置了主题的分区数以及每个分区下的副本数。
(2) 查询主题
查询所有主题的列表:
/bin/kafka-topic.sh --bootstrap-server broker_host:port --list
查询单个主题的详细数据:
/bin/kafka-topic.sh --bootstrap-server broker_host:port --describe --topic
(3) 修改主题
A :修改分区
/bin/kafka-topic.sh --bootstrap-server broker_host : port --alter --topic --partitions <新分区数>
区数一定要比原有分区数大。
B :修改主题级别参数:使用kafka-configs脚本修改对应的参数。
修改主题级别的max.message.bytes :
/bin/kafka-configs.sh --zookeeper zookeeper_host:port --entity-type topic --entity-name --alter --add-config max.message.bytes=10485760
这个命令里使用的 --zookeeper,也可以使用 --bootstrap-server,只是他是用来设置动态参数的。
C :变更副本数
使用kafka-reassign-partitions 脚本,增加副本数
D :修改主题限速
这是指设置Leader副本和follower 副本使用的带宽。有时候,需要让某个主题的副本在执行副本同步机制时,不要消耗过多的带宽。 要做到这个需要先设置leader.replication.throttled.rate和follower.replication.throttled.rate
bin/kafka-configs.sh --zookeeper zookeeper_host:port --alter --add-config 'leader.replication.throttled.rate=104857600,follower.replication.throttled.rate=104857600' --entity-type brokers --entity-name 0
E :主题分区迁移
同样是使用kafka-ressign-partitions脚本。
F :删除主题
/bin/kafka-topic.sh --bootstrap-server broker_host:port --delete --topic
删除主题的操作是异步的,执行完这条命令不代表主题立即就被删除了,它仅仅是被标记成"已删除"状态而已。Kafka会在后台默默地开启主题删除操作。
(4) 常见主题错误处理
A:主题删除失败
造成主题删除最常见的原因有两个:副本所在Broker宕机了;待删除主题的部分分区依然在执行迁移过程。
解决:
- 手动删除Zookeeper节点/admin/delete_topics 下待删除主题为名的znode。
- 手动删除该主题的磁盘上的分区目录。
- 在Zookeeper中执行rmr/controller,触发Controller重选举,刷新Controller缓存。
在执行最后一步时,要慎重,因为他可能造成大面积的分区Leader重选举。事实上,仅仅执行前两步也是可以的,只是Controller缓存中没有清空删除主题,不影响使用。
B:_consumer_offset占用太多的磁盘
如果发现这个主题占用了过多的磁盘空间,就要显示的使用jstack 命令查看kafka-log-cleaner-thread前缀线程状态。
2. 动态配置
一般配置的做法是,一次性在server.properties文件中配置好所有参数后,启动Broker。在需要变更任何参数时,必须要重启Broker。
在1.1.0版本中正是引入了动态Broker参数(Dynamic Broker Configs)。
**概念:**所谓动态,就是指修改参数值后,无需重启Broker就能立即生效,在server.properties中配置的参数称之为静态参数(Static Configs)。
(1) 分类
- read-only:被标记为read-only的参数和原来的参数行为一样,只有重启Broker,才能令修改生效;
- per-broker:被标记为per-broker的参数属于动态参数,修改它之后,只会在对应的Broker上生效;
- cluster-wide:被标记为cluster-wide的参数也属于动态参数,修改它之后,会在整个集群范围内生效;
(2) 使用场景
- 动态调整Broker端各种线程池大小,实时应对突发流量;
- 动态调整Broker端连接信息或安全配置信息;
- 动态更新SSL Keystore有效期;
- 动态调整Broker端Compact操作性能;
- 实时变更JMX指示收集器(JMX Metrics Reporter);
(3) 配置存储
A :首先Kafka将动态Broker参数保存在Zookeeper中
- changes:是用来实时监控动态参数变更的,不会保存参数值;
- topic是用来保存Kafka主题级别参数的;
- user和clients是用于动态调整客户端配额(Quota)的znode节点。所谓配额是指Kafka运维人员限制连入集群的客户端的吞吐量或限定他们的使用CPU资源。
B :/config/brokers znode才是真正保存动态Broker参数的地方,该znode下有两大类子节点:
- 第一类子节点只有一个,固定叫< default >,保存cluster-wide范围的动态参数
- 第二类以Broker.id为名,保存特定Broker的per-broker范围参数。
C :参数的优先级别:per-broker参数 > cluster-wide参数 > static参数 > Kafka默认值。
(4) 如何配置
A :使用Kafka自带的Kafka自带的Kafka-configs脚本。
如果要设置cluster-wide范围的动态参数,需要显式指定entity-default。
B :较大几率被动态调整的参值
- log.retention.ms:修改日志留存时间
- num.io.threads 和 num.network.threads
- 与SS相关的参数:ssl.keystore.type,ssl.keystore.location,ssl.kestore.password和ssl.key.password。允许动态实时调整相关参数就能创建过期时间很短的SSL证书,使用新的Keystore,阶段性的调整这组参数,提升安全
- num.replica.fetchers:这个可以增加该参数值,确保有充足的线程可以执行Follower副本向Leader副本的拉取。
3. 重设消费者位移
当需要实现重复消费历史数据的时候,就需要重设消费者组位移
(1) 重设位移的原因
A :Kafka和传统的消费引擎在设计上有很大区别,其中一个比较显著的区别是:Kafka的消息费者读取消息是可以重演的(replayable)
B :如RabbitMQ或ActiveMQ这样的传统消息中间件,他们处理和响应消息的方式是破坏性的(destructive),一旦消息被成功处理,就会被从Broker上删除。
C :Kafka,由于它是基于日志结构(log-based)的消息引擎,消费者在消费消息时,仅仅是从磁盘文件上读取数据,是只读操作,因此消费者不会删除消息数据。同时,由于位移数据是由消费者控制的,因此他能够很容易的修改位移值,实现重复消费历史数据的功能。
(2) 重设位移的策略
A :位移维度:根据位移值来重设。直接把消费者的位移值重设成我们给定的值。
B :时间维度:可以给定一个时间,让消费者吧位移调整成大于该时间的最小位移;亦可以给出一段时间间隔,如30分钟,然后让消费者直接将位移调回30分钟之前的位移值。
七种策略:
- Earliest:将位移调整到主题当前最早位移处。可以实现重新消费主题的所有消息;--to-earliest
- Latest:把位移重设成最新末端位移。可以跳过所有历史消息,从最新消息开始消费;--to-latest
- Current:将位移调整成消费者当前提交的最新位移,可以实现把位移重设到消费者重启时的位置;--to-current
- Specified-Offset:把位移值调整到指定的位移处。这可以实现跳过某条错误信息,避免造成消费阻塞;--to-offset
- Shift-By-N:相对于当前位值的位移值,可以向前或向后,跳出一段距离;--shift-by N
- DataTime:指定一个时间,然后将位移重置到该时间之后的最早位移处;--to-datetime
- Duration:给定相对时间间隔,让位移调整到距离当前给定时间间隔的位移处;--by-duration
(3) 重设的方法
A :通过消费者API来实现
B :通过Kafka-consumer-groups命令行脚本来实现
消费者API注意事项:
- 要创建消费者程序,要禁止自动提交位移
- 组ID要设置成要重设的消费者组的组ID
- 调用seekToBeginning方法时,要一次性构造主题的所有分区对象
- 最重要的是,一定要调用带长整形的poll方法,而不调用consumer.poll(Duration.ofSecond(0))。
- 要实现DateTime策略:需要借助KafkaConsumer.offsetsForTimes方法。
总之:使用Java API的方式来实现重设策略的主要入口方法,就是seek方法。
4. 常见工具脚本
2.2版本提供了30多个Shell脚本
- connect-standalone:支持kafka Connect组件支持单节点Standalone模式
- connect-distributed:支持多节点的Distributed模式
- kafka-acls:用于设置Kafka权限,如设置哪些用户可以访问哪些主题之类的权限
- kafka-broker-api-versions:主要目的是验证不同Kafka版本之间服务器和客户端的适配性。
- kafka-configs:用于配置管理
- kafka-console-consumer:消费消息
- kafka-console-producer:生产消息
- kafka-producer-perf-test:生产者的性能测试
- kafka-consumer-perf-test :消费者的性能测试
- kafka-consumer-groups:查看消费者组位移
- kafka-delegation-tokens:管理Delegation Token的,基于Delegation Token的认证是一种轻量级的认证机制,补充了现有的SASL认证机制
- kafka-delete-records:用于删除Kafka的分区消息
- kafka-dump-log:能够查看kafka消息文件的内容,包括消息的各种元数据信息
- kafka-log-dirs:可以帮助查询各个Broker上的各个日志路径的磁盘占用情况
- kafka-mirror-maker:可以帮助实现kafka集群间消息同步
- kafka-preferred-replica-election:执行Preferred Leader选举。他可以为指定的主题执行"换Leader"的操作
- kafka-reassign-partitions:用于执行分区副本迁移以及副本文件路径迁移
- kafka-topics:所有主题管理操作,都是有该脚本来实现
- kafka-run-class:可以用这个脚本执行任何带main方法的Kafka类
- kafka-server-start和kafka-server-stop:启动和停止Kafka Broker进程
- kafka-streams-application-reset:用来给kafka-Streams应用程序重试位移,以便重新消费数据
- kafka-verifiabel-producer和kafka-verifiable-consumer是用来测试生产者和消费者功能的。
- zookeeper开头的脚本是用来管理和运维Zookeeper的
5. KafkaAdminClient
(1) 引入原因
- kafka自带的各种命令行脚本都只能运行在控制台上,不便于集成进应用程序或运维框架
- 这些命令行脚本很多都是通过连接Zookeeper来提供服务,这存在一些潜在问题,如这可能绕开Kafka的安全设置。
- 这些脚本需要使用Kafka内部的类实现,即Kafka服务端的代码。社区希望用户只使用Kafka客户端代码,通过现有的请求机制来运维管理集群。
(2) 使用及功能
使用:需要在工程中显示的地增加依赖。
九大类功能:
- 主题管理:包括主题的创建,查询和删除
- 权限管理:包括具体权限的配置与删除
- 配置参数管理:包括Kafka各种资源的参数设置,详情查询。所谓的kafka资源主要有Broker,主题,用户,Client-id等
- 副本日志管理:包括副本底层日志路径的变更和详情查询
- 分区管理:即创建额外的主题分区
- 消息删除:删除指定位移之前的分区消息
- Delegation Token管理:包括Delegation Token的创建,更新,过期和详情查询
- 消费者组管理:包括消费者组的查询,位移查询和删除
- Preferred领导者选举:推选指定主题分区的Preferred Broker为领导者。
(3) 工作原理
A :从设计上来看,AdminClient是一个双线程的设计:前端主线程和后端I/O线程。
- 前端线程负责将用户要执行的操作转换成对应的请求,然后将请求发送到后端I/O线程的队列中;
- 后端I/O线程从队列中读取相应的请求,然后发送到对应的Broker节点上,之后把执行结果保存起来,以便等待前端线程的获取。
B :AdminClient在内部大量使用生产者---消费者模型将请求生产和处理解耦
C :前端主线程会创建一个名为Call的请求对象实例。
该实例的有两个主要任务:
- 构建对应的请求对象:如要创建主题,就创建CreateTopicRequest;要查询消费者位移,就创建OffsetFetchRequest
- 指定响应的回调逻辑:如Broker端接收到CreateTopicResponse之后要执行的动作。
一旦创建好Call实例,前端主线程会将其放入到新请求队列(New Call Queue)中,此时,前端主线程的任务就算完成了。他只需要等待
结果返回即可。剩下的所有事情都是后端I/O线程的工作了。 D :后端I/O线程,该线程使用了3个队列(新请求队列、待发送请求队列、处理中请求队列)来承载不同时期的请求对象
使用3个队列的原因:
- 新请求队列的线程安全是有Java的monitor锁来保证的。为了确保前端主线程不会因为monitor锁被阻塞,后端I/O线程会定期地将新请求队列中的所有Call实例全部搬移到待发送请求队列中进行处理。
- 待发送请求队列和处理中请求队列只由后端I/O线程处理,因此无需任何锁机制来保证线程安全。当I/O线程在处理某个请求时,他会显式的将该请求保存在处理中请求队列。一旦处理完成,I/O线程会自动地调用Call 对象中的回调完成最后的处理。最后,I/O线程会通知前端主线程处理完毕,这样前端主线程就能够及时的获取到执行操作的结果。
(4) 构造和销毁AdminClient实例
A :切记它的的完整路径是org.apche.kafka.clients.admin.AdminClient。
B :创建AdminClient实例和创建KafkaProducer或KafkaConsumer实例的方法是类似的,你需要手动构造一个Properties对象或Map对象,然后传给对应的方法。
6. Kafka监控
(1) 监控维度
监控维度 | 指标 |
---|---|
主机监控 | 含义:指监控Kafka集群Broker所在的节点机器的性能。 常见的主机监控指标:机器负载、CPU使用率、内存使用率、磁盘I/O使用率、网络I/O使用率、TCP连接数、打开文件数和inode使用情况 |
JVM监控 | 3个指标:FullGC发生频率和时长、活跃对象大小和应用线程总数 |
集群监控 | 5个方法:查看Broker进程是否启动,端口是否建立;查看Broker端关键日志;查看Broker端关键线程的运行状态;查看Broker端的关键JMX指标;监控Kafka客户端 |
(4) 主流的Kafka监控框架
监控框架 | |
---|---|
JMXTool工具 | 可以实时查看KafkaJMX指标,不过只能应用于简单的监控场景 |
Kafka Manager | 作为一款强大的Kafka开源监控框架,它提供了丰富的实时监控指标以及适当的管理功能,非常适合一般的Kafka集群监控 |
Burrow | 目前提供的功能十分有限,但质量是很有保证的 |
JMXTrans+InfluxDB+Grafana | 可以在一套监控框架中同时监控企业的多个关键技术组件 |
ConfluentControlCenter | 目前已知的最强大的Kafka监控框架了。实时地监控 Kafka 集群,方便操作和搭建基于 Kafka 的实时流处理应用;提供了统一式的主题管理功 |
7. 性能调优
调优目标:高吞吐量、低延时。
优化漏斗:自上而下分为应用程序层、框架层、JVM层和操作系统层。层级越靠上,调优的效果越明显。
调优类型 | 建议 |
---|---|
操作系统 | 挂载文件系统时禁掉atime更新;选择ext4或XFS文件系统;swap空间的设置;页缓存大小 |
JVM(堆设置和GC收集器) | 将JVM 堆大小设置成 6~8GB;建议使用 G1 收集器,方便省事,比 CMS 收集器的优化难度小 |
Broker端 | 保持服务器端和客户端版本一致 |
应用层 | 要频繁地创建Producer和Consumer对象实例;用完及时关闭;合理利用多线程来改善性能 |
调优吞吐量(TPS)和延时:
调优 TPS:
参数列表 | |
---|---|
Broker端 | 适当增加num.replica.fetchers参数值,但不超过CPU核数 |
调优GC参数以避免经常性的Full GC | |
Producer端 | 适当增加batch.size参数值,比如从默认的16KB增加到512KB或1MB |
适当增加linger.ms参数值,比如10~100 | |
设置compression.type=lz4或zstd | |
设置acks=0或1 | |
设置retries=0 | |
如果多线程共享同一个Producer实例,则增加buffer.memory参数值 | |
Consumer端 | 采用多Consumer进程或线程同时消费数据 |
增加fetch.min.bytes参数值,比如设置成1KB或更大 |
调优延时:
参数列表 | |
---|---|
Broker端 | 适当设置num.replica.fetchers值 |
Producer端 | 设置linger.ms=0 |
不启用压缩,即设置compression.type=none | |
设置ackes=1 | |
Consumer端 | 设置fetch.min.bytes=1 |