kafka-生产者-(day-4)

day-3

BufferPool
  • 产生原因:ByteBuffer的创建和释放都是比较耗费资源的,为了实现内存的高效利用,产生了他。他会对特定大小的ByteBuffer进行管理
BufferPool的字段
  • free:是一个ArrayDeque队列,缓存指定大小的ByteBuffer对象
  • ReentrantLock:因为这个BufferPool在多线程中使用,保证其安全
  • waiters:这个队列中包含小空间导致阻塞的线程对应的Condition对象
  • totalMemory:整个pool的大小
  • availableMemory:可用空间大小-totalMemeoy-free中每个ByteBuffer大小
BufferPool的函数
  • allocate():从pool中申请ByteBuffer,要是因为空间不足申请不下来的时候,就阻塞调用线程
  • deallocate:从pool中释放大小为poolableSize[他是pool队列里面所有ByteBuffer的大小],然后唤醒一个因空间不足而阻塞的线程
RecordAccumulator
RecordAccumulator字段
  • batches:类型CopyOnWriteMap,TopicPartition-RecordBatch集合,他是一个队列,每个队员里面都可以找到RecordBatch集合要发送到的目的地TopicPartition
  • BatchSize:指定每个RecordBatch底层的ByteBuffer大小
  • Compression:压缩类型
  • imcomplete:未发送完成的RecordBatch集合
  • free:BufferPool对象
  • drainIndex:发送RecordBatch集合一次发不完,他记录的就是下次开始发送的位置
kafkaProducer.send()调用的时候,最终内部调用的是RecordAcculator.append()
RecordAcculator.append()详细步骤
  • 在batch中找TopicPartition对应的RecordBatch集合,要是没有,就创建,并将他添加到batches
  • 对Deque加锁(Deque就是RecordBatch集合)
  • 调用tryAppend(),想Deque最后一个RecordBatch追加Record(消息)
  • 对Deque解锁
  • 要是成功:返回RecordAppendResult[内部封装了ProduceRequestRequest]唤醒sender;
  • 追加失败:从BufferPool中申请新的ByteBuffer,回到给Deque加锁继续直到追加成功,要是还是失败,就用ByteBuffer创建RecordBatch, 将Record追加到新建的RecordBatch,将RecordBatch追加打破Deque最后将新建的RecordBatch追加到incomplete集合,然后解锁,返回并唤醒sender;
    ####### 当然,这里唤醒sender也不是说唤醒就能唤醒的,他是调用了kafkaProducer.dosend()函数判断此次向RecordAccumlator中追加消息是否满足消息所在的最后一个RecordBatch满了,或者队列中不指一个RecordBatch
Ready()[在客户端向服务器发送消息前,会调用它来获取符合发送的消息集合的节点],有如下条件
  • Deque中有多个RecordBatch或者第一个RecordBatch是否满了【只取第一个进行判断就行】
  • 是否超时了
  • 是否BufferPool的空间耗尽了
  • 是否有线程在等待flush操作完成
  • sender线程准备关闭
他的过程如下:首先他会遍历batches集合的每分区,找到分区leader所在的node,要是满足上面的条件就加到readyNodes集合中;过程完后最后函数返回ReadyCheckResult对象,他里面记录了满足的node集合,还有直到步道leader的分区,还有下次调用ready()进行检查的时间间隔
kafkaProducer.send()调用的时候,最终内部调用的是RecordAcculator.append(),接着调用RecordAccumulator.drain()
RecordAccumulator.drain()会将之前的map(TopicPartition,list)构造成map(NodeID,List)返回
  • 为什么要这样做呢?---原因:在I/O层,生产者是面向Node发送消息的,但是在sender呢,他是关心消息发送到哪个分区的,因此要进行转换
  • 今天也是美好的一天* o*
相关推荐
KmSH8umpK10 小时前
Redis分布式锁从原生手写到Redisson高阶落地,附线上死锁复盘优化方案进阶第三篇
redis·分布式·wpf
KmSH8umpK13 小时前
SpringBoot 分布式锁实战:从单机锁到Redis分布式锁全覆盖,解决超卖、重复下单、幂等并发问题
spring boot·redis·分布式
KmSH8umpK16 小时前
Redis分布式锁从原生手写到Redisson高阶落地,附线上死锁复盘优化方案
redis·分布式·wpf
长河18 小时前
XXL-JOB 从本地快速上手到核心架构深度解析
分布式
juniperhan18 小时前
Flink 系列第22篇:Flink SQL 参数配置与性能调优指南:从 Checkpoint 到聚合优化
大数据·数据仓库·分布式·sql·flink
juniperhan1 天前
Flink 系列第21篇:Flink SQL 函数与 UDF 全解读:类型推导、开发要点与 Module 扩展
java·大数据·数据仓库·分布式·sql·flink
marsh02062 天前
41 openclaw分布式会话管理:跨服务状态同步方案
分布式·ai·编程·技术
杰建云1672 天前
Plurai 分布式推理引擎深度评测
分布式
星筏2 天前
深入理解分布式锁:ZooKeeper vs Redis
redis·分布式·zookeeper
Knight_AL2 天前
从 0 到 1:PG WAL → Debezium → Kafka → Spring Boot → Redis
spring boot·redis·kafka