目录
- [1 背景](#1 背景)
- [2 kafka的架构来源](#2 kafka的架构来源)
-
- [2.1 增加消息队列](#2.1 增加消息队列)
- [2.2 高性能](#2.2 高性能)
- [2.3 高可用](#2.3 高可用)
- [2.4 持久化和过期策略](#2.4 持久化和过期策略)
- [2.5 Consumer Group](#2.5 Consumer Group)
- [2.6 Zookeeper](#2.6 Zookeeper)
- [3 Kafka架构图](#3 Kafka架构图)
- [4 Kafka的应用场景](#4 Kafka的应用场景)
1 背景
![](https://i-blog.csdnimg.cn/direct/bd73140353b84e8da5171f45ebe2fe8b.png)
场景:
A服务每秒发送200个消息
B服务每秒处理100个消息
问题:
B服务会被压垮,那如何保证B能正常处理所有A的消息
方案:
增加中间层处理,该中间层可以是消息队列Kafka
2 kafka的架构来源
2.1 增加消息队列
基于上面的背景,我们可以在可以在B服务的内存中加一个队列,那什么是消息队列呢?
如上图的队列其实就是个链表,链表的每个节点就是一个消息,每个节点也有个序号叫做offset
B服务消费消息队列的消息,更新offset,如果处理的不及时,消息就会堆积在队列里,如果B服务重启,消息就都丢失了!将消息队列从B中挪出来作为一个单独的进程,即单独的服务,这样就互不影响。这样就有了简陋的消息队列。
2.2 高性能
如果B服务消费情况较差,可以增加消费者,增大消息队列的消费速度,与此同时可以增加生产者的数量,提高消息的吞吐量
当生产者和消费者的数量增多后会争抢同一个消息队列,抢不到的一方就要等待,比较浪费时间!
这时候就要增加消息队列了!每个消息队列就是一个topic
生产者 按照topic将数据投递到不同的消息队列中,消费者 根据topic订阅不同的topic
但是单个topic的消息可能过多
可以将单个队列拆分好几段,每一段就是一个partition,每个消费者消费一个partition,
随着partition增多会影响单机性能,导致CPU过高,影响整体系统性能。
可以增加节点去缓解CPU的压力
2.3 高可用
![](https://i-blog.csdnimg.cn/direct/6f638a9a12f049b7b513937fa47865c3.png)
如果partition所在节点故障会导致消息丢失,那就谈不上高可用了。此时我们就可以给partition增加副本,叫做ReplicaSet。
leader 负责应付生产者和消费者的请求,followers只管同步leader 的数据
把leader 和follower 分别部署在两个主机上,当其中一台挂掉,也不会影响另外一台的工作。如果主节点挂了还能从follower 中选出新的leader
2.4 持久化和过期策略
![](https://i-blog.csdnimg.cn/direct/69f328121e604461ac436adba26802b4.png)
如果一个partition的主文件及副本文件的机器都宕机了,那么数据就都丢了
所以我们的数据不应该放在内存里,应该放在磁盘上,即使服务挂了,重启服务后也可以从磁盘中读取数据
![](https://i-blog.csdnimg.cn/direct/d03a1869160241cb8f60566884b26f71.png)
磁盘容量有限,日积月累,数据量极大,此时就有了保留策略(retention policy)。
2.5 Consumer Group
![](https://i-blog.csdnimg.cn/direct/5e969a257ffa421a8e8912be050967d3.png)
新增消费者的时候只能根据最新的offset消费,如果想让新增的消费者从某个offset开始消费,如何处理?
于是就有了消费者组的概念,不同消费者组维护自己的消费进度
2.6 Zookeeper
![](https://i-blog.csdnimg.cn/direct/9fee9ff53d554cc8baab3c1027af6aa7.png)
组件过多,每个组件都有自己的数据和状态,所以需要有个组件来统一维护这些状态信息,于是我们有了Zookeeper ,它会定期和broker通讯,获取Kafka状态,以此判断,是不是有broker挂了,某些消费组消费到哪里了
3 Kafka架构图
![](https://i-blog.csdnimg.cn/direct/6a218afdc72243e397625de185548ddd.png)
4 Kafka的应用场景
削峰填谷:秒杀活动、大数据和日志异构同步等