kafka入门(一):kafka消息发送与消费

kafka的基础概念

  • Producer (消息生产者)

    向主题发布消息的客户端应用程序称为生产者(Producer),生产者用于持续不断的向某个主题发送消息。

  • Consumer (消息消费者)

    订阅主题消息的客户端程序称为消费者(Consumer),消费者用于处理生产者产生的消息。

  • Consumer Group (消费者组)

每个消费者属于一个特定的消费者群组(可为每个消费者指定group name,若不指定group name则属于默认的group)。

每个消费者群组都有一个唯一的GroupId。

  • Brokers(kafka服务器)

一个独立的 Kafka 服务器就被称为 broker,broker 接收来自生产者的消息,为消息设置偏移量,并提交消息到磁盘保存。

一个broker可以容纳多个topic。每个broker都有各自的broker.id

  • Topics(主题)

消息的种类称为 主题(Topic),可以说一个主题代表了一类消息。相当于是对消息进行分类。

  • Partition(分区)

主题(Topic)可以被分为若干个分区(partition),同一个主题中的分区可以不在一个机器上,有可能会部署在多个机器上,

由此来实现 kafka 的伸缩性,单一主题中的分区有序,但是无法保证主题中所有的分区有序。

安装kafka,创建 topic:

Windows安装kafka, 详情见:https://blog.csdn.net/sinat_32502451/article/details/133067851

Linux 安装kafka,详情见:https://blog.csdn.net/sinat_32502451/article/details/133080353

添加依赖包:

复制代码
        <dependency>
            <groupId>org.springframework.kafka</groupId>
            <artifactId>spring-kafka</artifactId>
            <version>2.1.10.RELEASE</version>
        </dependency>
        <dependency>
            <groupId>org.apache.kafka</groupId>
            <artifactId>kafka-clients</artifactId>
            <version>2.0.0</version>
        </dependency>

kafka生产者示例:

按以下步骤发送消息:

  • 设置 broker服务器的ip和端口

  • 生产者初始化

  • 发送消息

    public class KafkaDemoProducer {
    public static final String BROKER_LIST = "localhost:9092";
    public static final String TOPIC = "myTopic1";

    复制代码
      public static void main(String[] args) {
          //属性配置
          Properties properties = getProperties(BROKER_LIST);
          //生产者初始化
          KafkaProducer<String, String> producer = new KafkaProducer<>(properties);
          ProducerRecord<String, String> record = new ProducerRecord<>(TOPIC, "hello kafka");
          //发送消息
          try {
              producer.send(record);
              
          } catch (Exception e) {
              System.out.println("send error." + e);
          }
          producer.close();
      }
    
      private static Properties getProperties(String brokerList) {
          Properties properties = new Properties();
          properties.put("key.serializer",
                  "org.apache.kafka.common.serialization.StringSerializer");
          properties.put("value.serializer",
                  "org.apache.kafka.common.serialization.StringSerializer");
          properties.put("bootstrap.servers", brokerList);
          return properties;
      }

    }

kafka消费者示例:

主要按照以下步骤:

  • 设置 broker服务器的ip和端口, 设置 消费者群组id

  • 初始化消费者

  • 消费者订阅主题

  • 消费者批量拉取消息

    public class KafkaDemoConsumer {
    public static final String BROKER_LIST = "localhost:9092";
    public static final String TOPIC = "myTopic1";
    public static final String GROUP_ID = "group.demo";

    复制代码
      public static void main(String[] args) {
          consumerRecord();
      }
    
      public static void consumerRecord() {
          //属性配置
          Properties properties = getProperties(BROKER_LIST, GROUP_ID);
          //消费者初始化
          KafkaConsumer<String, String> consumer = new KafkaConsumer<>(properties);
          //消息者订阅主题
          consumer.subscribe(Collections.singletonList(TOPIC));
          //循环
          while (true) {
              //每次拉取 1千条消息
              ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(1000));
              for (ConsumerRecord<String, String> record : records) {
                  System.out.println("=============> 消费kafka消息:"+ record.value());
              }
          }
      }
    
      public static Properties getProperties(String brokerList, String groupId) {
          Properties properties = new Properties();
          //序列化
          properties.put("key.deserializer",
                  "org.apache.kafka.common.serialization.StringDeserializer");
          properties.put("value.deserializer",
                  "org.apache.kafka.common.serialization.StringDeserializer");
          //broker服务器的ip和端口,多个用逗号隔开
          properties.put("bootstrap.servers", brokerList);
          //消费者群组id
          properties.put("group.id", groupId);
          return properties;
      }

    }

观察idea 控制台,可以看到 成功消费了消息:

复制代码
=============> 消费kafka消息:hello kafka

参考资料:

《深入理解kafka 核心设计与实践原理》
kafka的简单理解

相关推荐
ask_baidu15 小时前
KafkaUtils
kafka·bigdata
洛豳枭薰17 小时前
消息队列关键问题描述
kafka·rabbitmq·rocketmq
lucky670717 小时前
Spring Boot集成Kafka:最佳实践与详细指南
spring boot·kafka·linq
袁煦丞 cpolar内网穿透实验室19 小时前
远程调试内网 Kafka 不再求运维!cpolar 内网穿透实验室第 791 个成功挑战
运维·分布式·kafka·远程工作·内网穿透·cpolar
岁岁种桃花儿19 小时前
CentOS7 彻底卸载所有JDK/JRE + 重新安装JDK8(实操完整版,解决kafka/jps报错)
java·开发语言·kafka
闻哥1 天前
Kafka高吞吐量核心揭秘:四大技术架构深度解析
java·jvm·面试·kafka·rabbitmq·springboot
indexsunny2 天前
互联网大厂Java面试实战:Spring Boot微服务在电商场景中的应用与挑战
java·spring boot·redis·微服务·kafka·spring security·电商
TTBIGDATA2 天前
【Atlas】Ambari 中 开启 Kerberos + Ranger 后 Atlas Hook 无权限访问 Kafka Topic:ATLAS_HOOK
大数据·kafka·ambari·linq·ranger·knox·bigtop
岁岁种桃花儿2 天前
Kafka从入门到上天系列第一篇:kafka的安装和启动
大数据·中间件·kafka