Kafka生产消费实战-JAVA

Kafka生产消费实战-JAVA

文章目录

生产者代码

java 复制代码
public static void main(String[] args) {

        Properties prop = new Properties();
        // 指定broker地址
        prop.put("bootstrap.servers", "hadoop01:9092,hadoop02:9092,hadoop03:9092");
        // 消息序列化
        prop.put("key.serializer", StringSerializer.class.getName());
        prop.put("value.serializer", StringSerializer.class.getName());
        // 创建生产者
        KafkaProducer producer = new KafkaProducer<String, String>(prop);
        // f发送数据
        String topic = "hello";
        producer.send(new ProducerRecord<String, String>(topic, "hello kafka producer"));

        // close
        producer.close();
    }

消费者代码

java 复制代码
 public static void main(String[] args) {

        Properties prop = new Properties();
        prop.put("bootstrap.servers", "192.168.52.100:9092,192.168.52.101:9092,192.168.52.102:9092");
        // 反序列化
        prop.put("key.deserializer", StringDeserializer.class.getName());
        prop.put("value.deserializer", StringDeserializer.class.getName());
        // 指定消费者组
        prop.put("group.id", "con-1");
        KafkaConsumer<String, String> consumer = new KafkaConsumer<String, String>(prop);

        Collection<String> topics = new ArrayList<>();
        topics.add("hello");
        // 订阅指定的topic
        consumer.subscribe(topics);

        while(true) {
            // 消费数据
            ConsumerRecords<String, String> consumerRecords = consumer.poll(Duration.ofSeconds(1));

            for (ConsumerRecord message: consumerRecords
                 ) {
                System.out.println(message);
            }
        }
    }

消费者代码扩展

java 复制代码
// 开启自动提交功能,默认是开启
        prop.put("enable.auto.commit", "true");
        // 自动提交时间间隔
        prop.put("auto.commit.interval.ms", "5000");
        // 先根据group.id指定的消费者组查询保存的offset信息
        // 如果找到了,说明之前消费过该消费组的消息,则根据之前保存的offset继续消费
        // 如果没有找到,说明是第一次消费,或者说是之前的offset对应的数据已经不存在了,此时就会根据auto.offset.reset 的值执行不同的消费逻辑
        // earliest:从最早的数据开始消费,从头开始
        // latest : 最新的数据开始消费-默认的策略
        // none : 抛出异常
        // 在实时计算的场景下,建议设置为latest
        // 这个参数只会在消费者第一次消费或者对应的offset没有数据的时候才会生效
        prop.put("auto.offset.reset", "latest");

Consumer消费offset查询

  • kafka0.9之前,消费的offset信息是保存在zookeeper中,0.9之后使用了新的消费API,消费者的信息会保存在kafka里面的_consumer_offsets这个topic中
  • 如何查询保存在kafka中的consumer的offset信息?
shell 复制代码
# 查询消费者信息
[root@hadoop01 kafka_2.12-2.4.0]# bin/kafka-consumer-groups.sh --list --bootstrap-server hadoop01:9092 
con-1

# 消费组描述
[root@hadoop01 kafka_2.12-2.4.0]# bin/kafka-consumer-groups.sh --describe --bootstrap-server hadoop01:9092 --group con-1

GROUP           TOPIC           PARTITION  CURRENT-OFFSET  LOG-END-OFFSET  LAG             CONSUMER-ID                                           HOST            CLIENT-ID
con-1           hello           2          1               1               0               consumer-con-1-1-572e3210-a06e-499c-ab2e-3d3340dd0129 /192.168.52.1   consumer-con-1-1
con-1           hello           3          1               1               0               consumer-con-1-1-572e3210-a06e-499c-ab2e-3d3340dd0129 /192.168.52.1   consumer-con-1-1
con-1           hello           1          0               0               0               consumer-con-1-1-572e3210-a06e-499c-ab2e-3d3340dd0129 /192.168.52.1   consumer-con-1-1
con-1           hello           0          1               1               0               consumer-con-1-1-572e3210-a06e-499c-ab2e-3d3340dd0129 /192.168.52.1   consumer-con-1-1
con-1           hello           4          2               2               0               consumer-con-1-1-572e3210-a06e-499c-ab2e-3d3340dd0129 /192.168.52.1   consumer-con-1-1

Consumer消费顺序

  • 当一个消费者消费一个partition的时候,消费的数据顺序和此partition数据的生产顺序是一致的

  • 当一个消费者消费多个partition的时候,消费者按照partition的顺序,首先消费一个partition,当消费完一个partition最新的数据后再消费其它partition的数据

总之,如果一个消费者消费多个partition,只能保证消费者的数据顺序在一个partition内有序

Kafka的三种语义

  • 至少一次:at-least-once,有可能对数据重复处理
java 复制代码
// 将自动提交设置为false
prop.put("enable.auto.commit", "false");
// 手动提交
consumer.commitAsync();
  • 至多一次:at-most-once,默认实现

  • 仅此一次:exactly-once

相关推荐
雷神乐乐2 分钟前
File.separator与File.separatorChar的区别
java·路径分隔符
小刘|7 分钟前
《Java 实现希尔排序:原理剖析与代码详解》
java·算法·排序算法
Mephisto.java13 分钟前
【大数据学习 | kafka高级部分】kafka的kraft集群
大数据·sql·oracle·kafka·json·hbase
Mephisto.java15 分钟前
【大数据学习 | kafka高级部分】kafka的文件存储原理
大数据·sql·oracle·kafka·json
逊嘘26 分钟前
【Java语言】抽象类与接口
java·开发语言·jvm
morris13133 分钟前
【SpringBoot】Xss的常见攻击方式与防御手段
java·spring boot·xss·csp
yx9o1 小时前
Kafka 源码 KRaft 模式本地运行
分布式·kafka
七星静香1 小时前
laravel chunkById 分块查询 使用时的问题
java·前端·laravel
Jacob程序员1 小时前
java导出word文件(手绘)
java·开发语言·word
ZHOUPUYU1 小时前
IntelliJ IDEA超详细下载安装教程(附安装包)
java·ide·intellij-idea