Kafka分区

目录

Kafka分区的好处

  1. 便于合理使用存储资源,每个Partition在一个Broker上存储,可以把海量的数据按照分区切割成一块一块数据存储在多台Broker上,合理控制分区的任务,可以实现负载均衡的效果
  2. 提高并行度,生产者可以以分区为单位发送数据;消费者可以以分区为单位进行消费数据

生产者发送消息的分区策略

默认的分区器 DefaultPartitioner

在IDEA中ctrl+n,全局查找DefaultPartitioner

在IDEA中全局查找ctrl+n ProducerRecord类,在类中可以看到如下构造

  1. 指明partition的情况下,直接将指明的值作为partition值;例如partiton=0,所有数据写入分区0

  2. 没有指明partition值但有key的情况下,将key的hash值与topic的partition数进行取余得到partition值;例如key1的hash值

    = 5,key2的hash值 = 6,topic的partition数 = 2,那么key1对应的value1写入1号分区,key2对应的value2写入0号分区

  3. 既没有partition值又没有key值得情况下,Kafka采用Sticky Partition(黏性分区器),会随机选择一个分区,并尽可能一直使用该分区,待该分区得batch已满或者已完成,Kafka再随机一个分区进行使用(和上一次得分区不同)例如:第一次随机选择0号分区,等0号分区当前批次满了(默认16k)或者linger.ms设置得时间到,Kafka再随机一个分区进行使用(如果还是0会继续随机)

自定义分区器

需求:

例如我们实现一个分区器实现,发送过来的数据中如果包含了kafka,就发往0号分区,不包含就发往1号分区

实现步骤:

  1. 定义类实现Partitoner接口
  2. 重写方法(重点是partition())
c 复制代码
package com.tsg.kafka.producer;
import org.apache.kafka.clients.producer.Partitioner;
import org.apache.kafka.common.Cluster;
import java.util.Map;

public class MyPartitioner implements Partitioner {

    public int partition(String topic, Object key, byte[] keyBytes, Object value, byte[] valueBytes, Cluster cluster) {

        String msg = value.toString();

        if("kafka".equals(msg)){
            return 0;
        }

        return 1;
    }

    public void close() {

    }

    public void configure(Map<String, ?> configs) {

    }
}

关联自定义分区器

c 复制代码
package com.tsg.kafka.producer;
import org.apache.kafka.clients.producer.*;
import org.apache.kafka.common.serialization.StringSerializer;
import java.util.Properties;

public class CustomProducerCallback {

    public static void main(String[] args) {

        Properties properties = new Properties();

        // 连接集群
        properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "master:9092,slave1:9092");

        // 指定对应的key和value的序列化类型
        properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
        properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());

        properties.put(ProducerConfig.PARTITIONER_CLASS_CONFIG,"com.tsg.kafka.producer.MyPartitioner");

        // 创建kafka生产者对象
        KafkaProducer<String, String> kafkaProducer = new KafkaProducer<String, String>(properties);

        // 发送数据
        for (int i = 0; i < 50; i++) {
            kafkaProducer.send(new ProducerRecord<String, String>("four","kafka"), new Callback() {
                public void onCompletion(RecordMetadata metadata, Exception exception) {
                    if(exception == null){
                        System.out.println("主题:" +metadata.topic() + " 分区: " +metadata.partition());
                    }
                }
            });
        }

        // 关闭资源
        kafkaProducer.close();

    }
}