01.Kafka简介与基本概念介绍

1 Kafka 简介

Kafka 是最初由 Linkedin公司开发,是一个分布式、支持分区(partition)的、多副本(replica)的,基于 Zookeeper 协调的分布式消息系统,它的最大的特性就是可以实时的处理大量数据以满足各种需求场景:比如基于 hadoop 的批处理系统、低延迟的实时系统、Storm/Spark流式处理引擎,web/nginx日志、访问日志,消息服务等等,Kafka 使用 scala 语言编写,Linkedin 于2010年贡献给了 Apache 基金会并成为顶级开源项目。

Kafka 设计之初被用于消息队列,自 2011 年由 LinkedIn 开源以来,Kafka 迅速从分布式的基于发布/订阅模式的消息队列(MessageQueue)消息队列演变为成熟的事件流处理平台。

1.1 Kafka的使用场景

  • 日志收集:公司可以用 Kafka 收集各种服务的 log,通过 kafka 以统一接口服务的方式开放给各种 consumer,例如 hadoop、Hbase、ElasticSearch 等。比如如下的日志平台架构
  • 消息系统:解耦和生产者和消费者、缓存消息等。
  • 用户活动跟踪:Kafka 经常被用来记录 web 用户或者 app 用户的各种活动,如浏览网页、搜索、点击等活动,这些活动信息被各个服务器发布到kafka的topic中,然后订阅者通过订阅这些topic来做实时的监控分析,或者装载到hadoop、数据仓库中做离线分析和挖掘。
  • 运营指标:Kafka也经常用来记录运营监控数据。包括收集各种分布式应用的数据,生产各种操作的集中反馈,比如报警和报告。

2 Kafka 基本概念

kafka是一个分布式的,分区的消息(官方称之为 commit log)服务。它提供一个消息系统应该具备的功能,但是确有着独特的设计。

可以这样来说,Kafka 借鉴了JMS 规范的思想,但是确并没有完全遵循 JMS 规范。

我们来看一下基础的消息(Message)相关术语:

|---------------|-------------------------------------------------------------------------------------------------------|
| 名称 | 解释 |
| Broker | 消息中间件处理节点,一个Kafka节点就是一个broker,一个或者多个Broker可以组成一个Kafka集群。 |
| Topic | Kafka根据topic对消息进行归类,发布到Kafka集群的每条消息都需要指定一个topic。 |
| Producer | 消息生产者,向Broker发送消息的客户端。 |
| Consumer | 消息消费者,从Broker读取消息的客户端。 |
| ConsumerGroup | 每个Consumer属于一个特定的Consumer Group,一条消息可以被多个不同的Consumer Group消费,但是一个Consumer Group中只能有一个Consumer能够消费该消息。 |
| Partition | 物理上的概念,一个topic可以分为多个partition,每个partition内部消息是有序的。 |

因此,从一个较高的层面上来看,producer 通过网络发送消息到 Kafka 集群,然后再由 Consumer 来进行消费,如下图的 Kafka 集群架构:

一个典型的Kafka集群中包含若干 Producer,若干 Broker(Kafka支持水平扩展,一般broker数量越多,集群吞吐率越高),若干 Consumer Group,以及一个Zookeeper集群。Kafka 通过Zookeeper 管理集群配置,选举leader,以及在Consumer Group发生变化时进行rebalance。Producer 使用 push 模式将消息发布到 Broker,Consumer 使用pull模式从broker订阅并消费消息。

服务端(Brokers)和客户端(Producer、Consumer)之间通信通过TCP协议来完成。

2.1 Kafka的优点

|-------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 解耦 | 消息系统在处理过程中间插入了一个隐含的、基于数据的接口层,两边的处理过程都要实现这一接口。这允许你独立的扩展或修改两边的处理过程,只要确保它们遵守同样的接口约束。 |
| 冗余(副本) | 有些情况下,处理数据的过程会失败。除非数据被持久化,否则将造成丢失。消息队列把数据进行持久化直到它们已经被完全处理,通过这一方式规避了数据丢失风险。许多消息队列所采用的"插入-获取-删除"范式中,在把一个消息从队列中删除之前,需要你的处理系统明确的指出该消息已经被处理完毕,从而确保你的数据被安全的保存直到你使用完毕。 |
| 扩展性 | 因为消息队列解耦了处理过程,所以增大消息入队和处理的频率是很容易的,只要另外增加处理过程即可。不需要改变代码、不需要调节参数。 |
| 灵活性&峰值处理能力 | 在访问量剧增的情况下,应用仍然需要继续发挥作用,但是这样的突发流量并不常见,如果为能处理这类峰值访问为标准来投入资源随时待命无疑是巨大的浪费。使用消息队列能够使关键组件顶住突发的访问压力,而不会因为突发的超负荷的请求而完全崩溃。 |
| 可恢复性 | 系统的一部分组件失效时,不会影响到整个系统。消息队列降低了进程间的耦合度,所以即使一个处理消息的进程挂掉,加入队列中的消息仍然可以在系统恢复后被处理。 |
| 顺序保证 | 在大多使用场景下,数据处理的顺序都很重要。大部分消息队列本来就是排序的,并且能保证数据会按照特定的顺序来处理。Kafka保证一个Partition内的消息的有序性。 |
| 缓冲 | 在任何重要的系统中,都会有需要不同的处理时间的元素。例如,加载一张图片比应用过滤器花费更少的时间。消息队列通过一个缓冲层来帮助任务最高效率的执行---------写入队列的处理会尽可能的快速。该缓冲有助于控制和优化数据流经过系统的速度。 |
| 异步通信 | 很多时候,用户不想也不需要立即处理消息。消息队列提供了异步处理机制,允许用户把一个消息放入队列,但并不立即处理它。想向队列中放入多少消息就放多少,然后在需要的时候再去处理它们。 |

2.2 Kafka的相关术语以及之间的关系:

2.2.1 Kafka 相关术语

|----------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 术语 | 说明 |
| Broker | Kafka 集群包含一个或多个服务器,每个服务器节点称为 Broker。 |
| Broker | Broker 存储 Topic 的数据。如果某 Topic 有N个partition,集群有 N个broker,那么每个broker存储该topic的一个partition。 |
| Broker | 如果某topic有N个partition,集群有(N+M)个broker,那么其中有N个broker存储该topic的一个partition,剩下的M个broker不存储该topic的partition数据。 |
| Broker | 如果某topic有N个partition,集群中broker数目少于N个,那么一个broker存储该topic的一个或多个partition。在实际生产环境中,尽量避免这种情况的发生,这种情况容易导致Kafka集群数据不均衡。 |
| Topic | 每条发布到Kafka集群的消息都有一个类别,这个类别被称为Topic。(物理上不同Topic的消息分开存储,逻辑上一个Topic的消息虽然保存于一个或多个broker上但用户只需指定消息的Topic即可生产或消费数据而不必关心数据存于何处)。 |
| Topic | 类似于数据库的表名。 |
| Partition | topic中的数据分割为一个或多个partition。每个topic至少有一个partition。每个partition中的数据使用多个segment文件存储。partition中的数据是有序的,不同partition间的数据丢失了数据的顺序如果topic有多个partition,消费数据时就不能保证数据的顺序。在需要严格保证消息的消费顺序的场景下,需要将partition数目设为1。 |
| Producer | 生产者即数据的发布者,该角色将消息发布到Kafka的topic中。broker接收到生产者发送的消息后,broker将该消息追加到当前用于追加数据的segment文件中。生产者发送的消息,存储到一个partition中,生产者也可以指定数据存储的partition。 |
| Consumer | 消费者可以从broker中读取数据。消费者可以消费多个topic中的数据。 |
| Consumer Group | 每个Consumer属于一个特定的Consumer Group(可为每个Consumer指定group name,若不指定group name则属于默认的group)。 |
| Leader | 每个partition有多个副本,其中有且仅有一个作为Leader,Leader是当前负责数据的读写的partition。 |
| Follower | Follower跟随Leader,所有写请求都通过Leader路由,数据变更会广播给所有Follower,Follower与Leader保持数据同步。如果Leader失效,则从Follower中选举出一个新的Leader。当Follower与Leader挂掉、卡住或者同步太慢,leader会把这个follower从"in sync replicas"(ISR)列表中删除,重新创建一个Follower。 |

2.1.2 Topics与Partition

Topic 在逻辑上可以被认为是一个 queue,每条消息都必须指定它的 Topic,可以简单理解为必须指明把这条消息放进哪个queue里。为了使得 Kafka 的吞吐率可以线性提高,物理上把 Topic分成一个或多个 Partition,每个 Partition 在物理上对应一个文件夹,该文件夹下存储这个 Partition 的所有消息和索引文件。创建一个 Topic 时,同时可以指定分区数目,分区数越多,其吞吐量也越大,但是需要的资源也越多,同时也会导致更高的不可用性,Kafka 在接收到生产者发送的消息之后,会根据均衡策略将消息存储到不同的分区中。因为每条消息都被append到该Partition中,属于顺序写磁盘,因此效率非常高(经验证,顺序写磁盘效率比随机写内存还要高,这是Kafka高吞吐率的一个很重要的保证)。

如果一个 Topic 的副本数为 3,那么 Kafka 将在集群中为每个 partition 创建 3 个相同的副本,只不过各个 Follower Partition 从 Leader Partition 同步数据的进度不同。集群中的每个 Broker 存储一个或多个 partition。多个 Producer 和 Consumer 可同时生产和消费数据。

对于传统的 message queue而言,一般会删除已经被消费的消息,而 Kafka 集群会保留所有的消息,无论其被消费与否。当然,因为磁盘限制,不可能永久保留所有数据(实际上也没必要),因此Kafka提供两种策略删除旧数据。一是基于时间,二是基于Partition文件大小

Kafka 以主题为单位进行归类。主题为逻辑上的概念。Partition 也可以理解为逻辑上的概念。

  • 一个 Partition 只能属于单个 Topic,一个 Partition 下可以有多个Topic ,Partition 里有不同的消息,类似于一个追加的日志文件。
  • Topic 与 Partition 一对多。
  • 分区的目的:分散磁盘IO。
2.1.3 Producer消息路由

Producer 发送消息到 broker 时,会根据 Paritition 机制选择将其存储到哪一个 Partition。如果 Partition 机制设置合理,所有消息可以均匀分布到不同的Partition里,这样就实现了负载均衡。如果一个Topic对应一个文件,那这个文件所在的机器I/O将会成为这个Topic的性能瓶颈,而有了Partition后,不同的消息可以并行写入不同broker的不同Partition里,极大的提高了吞吐率。

2.1.4 消费者与消费者组 Consumer Group:

同一 Partion 的一条消息只能被同一个Consumer Group内的一个Consumer消费,但多个Consumer Group可同时消费这一消息。

2.1.5 消息中间件模型

点对点(P2P,Point-to-Point)模式和发布/订阅(Pub/Sub)模式。

  • 点对点是基于队列的,消息生产者发送消息到消息队列,消费者从队列中接收消息。
  • 发布订阅模式定义了如何向一个内容节点发布和订阅消息,这个内容节点称为主题(Topic),主题可以认为是消息传递的中介,消息发布者将消息发布到某个主题,而消息订阅者从主题中订阅消息。
  • Kafka同时支持两种消息投递模式,而这得益于消费者与消费者组模型的契合。
  • 消费者都隶属于同一个消费组,相当于点对点模型。
  • 消费者都隶属于不同的消费者组,相当于发布/定于模式应用。
2.1.6 线程安全
  • Kafka 的 Producer 是线程安全的。
  • Kafka 的 Consumer 不是线程安全的。
相关推荐
miss writer36 分钟前
Redis分布式锁释放锁是否必须用lua脚本?
redis·分布式·lua
m0_7482548843 分钟前
DataX3.0+DataX-Web部署分布式可视化ETL系统
前端·分布式·etl
字节程序员2 小时前
Jmeter分布式压力测试
分布式·jmeter·压力测试
darkdragonking2 小时前
OpenEuler 22.03 不依赖zookeeper安装 kafka 3.3.2集群
kafka
ProtonBase2 小时前
如何从 0 到 1 ,打造全新一代分布式数据架构
java·网络·数据库·数据仓库·分布式·云原生·架构
时时刻刻看着自己的心2 小时前
clickhouse分布式表插入数据不用带ON CLUSTER
分布式·clickhouse
Data跳动11 小时前
Spark内存都消耗在哪里了?
大数据·分布式·spark
Java程序之猿12 小时前
微服务分布式(一、项目初始化)
分布式·微服务·架构
来一杯龙舌兰13 小时前
【RabbitMQ】RabbitMQ保证消息不丢失的N种策略的思想总结
分布式·rabbitmq·ruby·持久化·ack·消息确认
节点。csn15 小时前
Hadoop yarn安装
大数据·hadoop·分布式