go高并发之路——消息中间件kafka(下)

一、kafka副本机制

所谓的副本机制(Replication),也可以称之为备份机制 ,通常是指分布式系统在多台网络互联的机器上保存有相同的数据拷贝。kafka的副本概念实际上是在分区(partition)层级下定义的,每个分区配置有若干个副本。根据 Kafka 副本机制的定义,同一个分区下的所有副本保存有相同的消息序列,这些副本分散保存在不同的Broker 上,从而能够对抗部分 Broker 宕机带来的数据不可用

如下图所示,展示了一个有 3 台 Broker 的 Kafka 集群上的副本分布情况,可以看到,主题 1 分区 0 的 2 个副本分散在 2 台 Broker 上,其他主题分区的副本也类似,都散落在不同的 Broker 上,从而实现数据冗余。

既然副本有多个,而多个副本的数据都要保持一致,那这是怎么实现的呢? 针对这个问题,最常见的就是采用基于领导者(leader)的副本机制了,而kafka也是这样设计的。下面是kafka基于领导者的工作原理图:

关于领导者副本机制,我们需要清楚几个点: (1)在 Kafka 中,副本分成两类:领导者副本(Leader Replica)和追随者副本(Follower Replica)。每个分区在创建时都要选举一个副本,称为领导者副本,其余的副本都称为追随者副本。

(2)在 Kafka 中,追随者副本是不对外提供服务的,任何一个追随者副本都不能响应消费者和生产者的读写请求。这个很特殊,和其他的分布式系统不太一样,例如MySQL,一般备库都是可以提供对外服务的,比如读操作。kafka追随者副本唯一的任务就是从领导者副本异步拉取消息,并写入到自己的提交日志中,从而实现与领导者副本的同步。

(3)当领导者副本挂掉了,或者说领导者副本所在的 Broker 宕机时,kafka会依托于ZooKeeper组件监控到,然后开启新一轮的领导者选举,从追随者副本中选一个作为新的领导者。而老 Leader 副本重启回来后,只能作为追随者副本加入到集群中。

(4)kafka的领导者副本机制为什么要这么设计? 有一个好处就是,领导者副本做完了所有操作,不会存在所谓的数据读取延迟,毕竟像MySQL那样的话,从写副本到其它读副本,肯定会有数据延迟,那么连接读副本的客户端就要容忍数据延迟带来的业务影响。

(5)既然追随者副本不提供服务,只是保持与领导者副本的数据同步,那么追随者副本到底在什么条件下才算与 Leader 同步呢? kafka中有个概念 In-sync Replicas,也就是所谓的 ISR 副本集合,ISR 中的副本都是与 Leader 同步的副本,相反,不在 ISR 中的追随者副本就被认为是与 Leader 不同步的。当然,Leader副本天然就在ISR副本中。至于Kafka怎样判断某个副本是不是ISR,这就比较复杂了,有兴趣的同学可以去了解下。

如下图所示,我们可以看下腾讯云的ckafka的管理台,就有分区、leader、副本、ISR、未同步副本等这些字段,说明这些也是比较基础的概念,我们必须得清楚。

二、kafka为什么这么快

使用过kafka的同学应该都清楚,kafak处理数据的速度是飞一般的感觉。那为啥kafak会这么快呢? 1、顺序写入:Kafka的数据存储是基于日志的,消息被追加到分区的末尾。顺序写入在磁盘上比随机写入更高效,因为现代磁盘在顺序写入时能够达到更高的吞吐量。

2、零拷贝: Kafka在发送消息时使用了零拷贝技术,即操作系统在从磁盘读取数据并将其发送到网络时,不需要将数据拷贝到用户空间。这减少了数据的拷贝次数,从而提升了性能。

3、分区和并行处理: Kafka的主题被分成多个分区,每个分区可以独立于其他分区进行读写操作。这种分区机制允许Kafka在多个服务器上分布负载,从而实现高吞吐量。消费者可以并行地从多个分区中读取数据,这进一步提高了系统的处理能力。

4、批量处理: Kafka支持批量发送消息。生产者可以将多条消息批量发送到Kafka服务器,消费者也可以批量拉取消息。这种批量处理方式减少了网络往返次数,提高了效率。

5、数据压缩: Kafka支持对消息进行压缩,如GZIP、Snappy、LZ4等。压缩可以减少数据传输和存储的大小,进一步提高效率。

三、kafka如何重设消费者组位移

一般kafka中的消息是有保留时长的,有两个维度,一个是broker,另一个是可以针对broker下的各个topic分别设置保留时长。一般我们现网会设置保留时长1-7天,根据具体情况而定。

假设现在有个业务场景,我们修改了某个新功能,然后上线了两天了,突然发现这个上线的新功能有bug,需要重新消费上线之后的数据,那么这时候我们能怎么做呢? 很简单,我们可以创建一个新的消费者组,然后把位移指定到上线的那个时间点的offset,最后重新跑下老代码脚本,就可以搞定了。

那么我们如何去重设新消费者组的位移呢? 有两个方式: 1、假设我们使用腾讯云、阿里云之类的云kafka,那我们直接去后台设置一下就好,如下图所示就是腾讯云kafka重设消费者组位移的界面,可以看到有很多种设置的方式,可以以Topic为维度,也可以以Partition为维度

2、另一种方式就是通过代码去修改提交的位移,然后再重新消费,下面是重置消费者组位移的一个demo,实现了重置分区2的offset到20,重置之后,就可以从这个位点开始消费数据了:

go 复制代码
// 重置消费者组位移
// 有条件(kafka)的跑下这段代码,也可以得出一个结论,消费者组位移重置过后,一旦被消费,那么就不可能再被重置了。
// 想要消费那段数据,得整一个新的消费者组
func main() {
	// Kafka集群的地址
	brokers := []string{"172.88.88.88:9092"}

	// 创建配置
	config := sarama.NewConfig()
	config.Version = sarama.V1_1_1_0 // 你需要设置你的Kafka版本

	// 创建客户端
	client, err := sarama.NewClient(brokers, config)
	if err != nil {
		log.Fatalf("Error creating client: %v", err)
	}
	defer client.Close()

	// 消费者组
	groupID := "goLangAndKafka"
	topic := "xxx-cash"
	partition := int32(2) // 指定分区2

	// 获取消费者组的位移
	offsetManager, err := sarama.NewOffsetManagerFromClient(groupID, client)
	if err != nil {
		log.Fatalf("Error creating offset manager: %v", err)
	}
	defer offsetManager.Close()

	partitionOffsetManager, err := offsetManager.ManagePartition(topic, partition)
	if err != nil {
		log.Fatalf("Error creating partition offset manager: %v", err)
	}
	defer partitionOffsetManager.Close()

	// 重置位移到指定的偏移量
	newOffset := int64(20) // 你想要设置的新位移,这里重置偏移量到20
	partitionOffsetManager.MarkOffset(newOffset, "")

	log.Printf("Successfully reset offset for group %s, topic %s, partition %d to %d", groupID, topic, partition, newOffset)

	// 逻辑:重新消费20位点之后的数据...

}

以上,就是对kafka副本机制、kafka为什么这么高性能、kafka如何重设消费者组位移内容的一些讲解。至此,kafka的那些事儿基本上就讲完了,都是我们工作中需要弄懂整明白的东西。当然,这些是比较常见的知识,有些关于kafka更加深入的东西还需要各位去探索、去学习。

相关推荐
littleschemer2 小时前
Go缓存系统
缓存·go·cache·bigcache
Mephisto.java14 小时前
【Scala入门学习】基本数据类型和变量声明
大数据·hive·kafka·scala·涛思数据·scala3.1.2
ZLY_200416 小时前
828华为云征文|docker部署kafka及ui搭建
docker·kafka·华为云
一瓢一瓢的饮 alanchan1 天前
【运维监控】系列文章汇总索引
java·运维·kafka·grafana·prometheus·influxdb·运维监控
Will_11301 天前
kafka的主要功能
kafka
程序者王大川1 天前
【GO开发】MacOS上搭建GO的基础环境-Hello World
开发语言·后端·macos·golang·go
Grassto1 天前
Gitlab 中几种不同的认证机制(Access Tokens,SSH Keys,Deploy Tokens,Deploy Keys)
go·ssh·gitlab·ci
为自己_带盐2 天前
Kafka+PostgreSql,构建一个总线服务
postgresql·kafka·linq
MarkHD2 天前
Prometheus+grafana+kafka_exporter监控kafka运行情况
kafka·grafana·prometheus
芊言芊语2 天前
Kafka详细解析与应用分析
分布式·kafka