kafka-生产者-(day-4)

day-3

BufferPool
  • 产生原因:ByteBuffer的创建和释放都是比较耗费资源的,为了实现内存的高效利用,产生了他。他会对特定大小的ByteBuffer进行管理
BufferPool的字段
  • free:是一个ArrayDeque队列,缓存指定大小的ByteBuffer对象
  • ReentrantLock:因为这个BufferPool在多线程中使用,保证其安全
  • waiters:这个队列中包含小空间导致阻塞的线程对应的Condition对象
  • totalMemory:整个pool的大小
  • availableMemory:可用空间大小-totalMemeoy-free中每个ByteBuffer大小
BufferPool的函数
  • allocate():从pool中申请ByteBuffer,要是因为空间不足申请不下来的时候,就阻塞调用线程
  • deallocate:从pool中释放大小为poolableSize[他是pool队列里面所有ByteBuffer的大小],然后唤醒一个因空间不足而阻塞的线程
RecordAccumulator
RecordAccumulator字段
  • batches:类型CopyOnWriteMap,TopicPartition-RecordBatch集合,他是一个队列,每个队员里面都可以找到RecordBatch集合要发送到的目的地TopicPartition
  • BatchSize:指定每个RecordBatch底层的ByteBuffer大小
  • Compression:压缩类型
  • imcomplete:未发送完成的RecordBatch集合
  • free:BufferPool对象
  • drainIndex:发送RecordBatch集合一次发不完,他记录的就是下次开始发送的位置
kafkaProducer.send()调用的时候,最终内部调用的是RecordAcculator.append()
RecordAcculator.append()详细步骤
  • 在batch中找TopicPartition对应的RecordBatch集合,要是没有,就创建,并将他添加到batches
  • 对Deque加锁(Deque就是RecordBatch集合)
  • 调用tryAppend(),想Deque最后一个RecordBatch追加Record(消息)
  • 对Deque解锁
  • 要是成功:返回RecordAppendResult[内部封装了ProduceRequestRequest]唤醒sender;
  • 追加失败:从BufferPool中申请新的ByteBuffer,回到给Deque加锁继续直到追加成功,要是还是失败,就用ByteBuffer创建RecordBatch, 将Record追加到新建的RecordBatch,将RecordBatch追加打破Deque最后将新建的RecordBatch追加到incomplete集合,然后解锁,返回并唤醒sender;
    ####### 当然,这里唤醒sender也不是说唤醒就能唤醒的,他是调用了kafkaProducer.dosend()函数判断此次向RecordAccumlator中追加消息是否满足消息所在的最后一个RecordBatch满了,或者队列中不指一个RecordBatch
Ready()[在客户端向服务器发送消息前,会调用它来获取符合发送的消息集合的节点],有如下条件
  • Deque中有多个RecordBatch或者第一个RecordBatch是否满了【只取第一个进行判断就行】
  • 是否超时了
  • 是否BufferPool的空间耗尽了
  • 是否有线程在等待flush操作完成
  • sender线程准备关闭
他的过程如下:首先他会遍历batches集合的每分区,找到分区leader所在的node,要是满足上面的条件就加到readyNodes集合中;过程完后最后函数返回ReadyCheckResult对象,他里面记录了满足的node集合,还有直到步道leader的分区,还有下次调用ready()进行检查的时间间隔
kafkaProducer.send()调用的时候,最终内部调用的是RecordAcculator.append(),接着调用RecordAccumulator.drain()
RecordAccumulator.drain()会将之前的map(TopicPartition,list)构造成map(NodeID,List)返回
  • 为什么要这样做呢?---原因:在I/O层,生产者是面向Node发送消息的,但是在sender呢,他是关心消息发送到哪个分区的,因此要进行转换
  • 今天也是美好的一天* o*
相关推荐
架构师老Y7 分钟前
011、消息队列应用:RabbitMQ、Kafka与Celery
python·架构·kafka·rabbitmq·ruby
墨北小七3 小时前
小说大模型的分布式训练——张量并行架构设计与实现
分布式
豆豆3 小时前
政务服务平台站群一体化解决方案
大数据·分布式·微服务·cms·政务·网站管理系统·站群cms
昵称暂无14 小时前
分布式事务难题:Seata框架在微服务中的落地实践
分布式·微服务·架构
都说名字长不会被发现4 小时前
分布式场景下的数据竞争问题与解决方案
分布式·乐观锁·悲观锁·redission·redis 分布式锁·数据版本
甘露s4 小时前
分布式与可重入性的一些问题
分布式
juniperhan4 小时前
Flink 系列第 3 篇:核心概念精讲|分布式缓存 + 重启策略 + 并行度 底层原理 + 代码实战 + 生产规范
大数据·分布式·缓存·flink
想你依然心痛4 小时前
HarmonyOS 5.0 IoT开发实战:构建分布式智能设备控制中枢与边缘计算网关
分布式·物联网·harmonyos
talen_hx2964 小时前
《kafka核心源码解读》学习笔记 Day 02
笔记·学习·kafka
lifallen4 小时前
如何保证 Kafka 的消息顺序性?
java·大数据·分布式·kafka