零基础掌握Kafka

Apache Kafka是当前最流行的分布式流处理平台之一,由LinkedIn开发并于2011年开源。它被设计用于高吞吐量、低延迟的场景,广泛应用于日志收集、流处理、事件源等多种场合。本文将带你从零开始学习Kafka,并通过Java代码示例展示如何发送消息。

第一部分:Kafka基础知识

1.1 Kafka简介

Kafka是一个分布式的、可分区的、可复制的消息系统,它主要用于处理大规模实时消息。Kafka的设计目标是高吞吐量、持久存储和低延迟处理。

1.2 核心概念

  • Broker:Kafka集群包含一个或多个服务器,这些服务器被称为broker。
  • Topic:消息的分类。在Kafka中,每条消息属于一个特定的topic。
  • Partition:为了实现扩展性,一个非常大的topic可以分布到多个broker(服务器)上,一个topic可以分为多个partition。
  • Producer:消息和数据的生产者,负责创建消息,然后将其发布到Kafka topic。
  • Consumer:消息的消费者,订阅数据并处理其接收的数据。
  • ZooKeeper:Kafka用来保持集群配置一致性的服务,它用于管理broker节点的状态以及进行领导者选举。

1.3 Kafka工作流程

  1. 生产者将消息发送到Kafka服务器中的topic。这些消息存储在topic的partition中。
  2. 消费者订阅一个或多个topic,并从broker拉数据来进行处理。
  3. Kafka中的每个partition都有序地存储接收到的消息,并且每条消息在partition中都有一个唯一的序号,称为offset。

第二部分:Kafka的安装和基本操作

2.1 安装Kafka

Kafka依赖于ZooKeeper,因此需要先安装ZooKeeper。可以通过以下步骤在本地环境中安装Kafka和ZooKeeper:

  1. 下载Kafka :访问Apache Kafka官网下载最新版本的Kafka。

  2. 解压Kafka:解压下载的文件至您选择的目录。

  3. 启动ZooKeeper服务

    bin/zookeeper-server-start.sh config/zookeeper.properties
    
  4. 启动Kafka服务

    bin/kafka-server-start.sh config/server.properties
    

2.2 创建和管理Topic

  • 创建Topic

    bin/kafka-topics.sh --create --topic quickstart --bootstrap-server localhost:9092 --replication-factor 1 --partitions 1
    
  • 查看所有Topic

    bin/kafka-topics.sh --list --bootstrap-server localhost:9092
    

第三部分:使用Java进行消息发送

3.1 环境准备

确保你的机器上安装了Java和Maven。我们将使用Maven来管理项目依赖。

3.2 创建Maven项目

在你选择的IDE中创建一个新的Maven项目,添加以下依赖到pom.xml文件中:

<dependencies>
    <dependency>
        <groupId>org.apache.kafka</groupId>
        <artifactId>kafka-clients</artifactId>
        <version>2.8.0</version>
    </dependency>
</dependencies>

3.3 编写生产者代码

创建一个Java类KafkaProducerExample.java,并添加以下代码:

import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.clients.producer.RecordMetadata;
import java.util.Properties;

public class KafkaProducerExample {
    public static void main(String[] args) {
        // 设置连接Kafka的初始配置
        Properties props = new Properties();
        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "localhost:9092");
        props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer");
        props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer");

        // 创建生产者实例
        KafkaProducer<String, String> producer = new KafkaProducer<>(props);

        try {
            for (int i = 0; i < 100; i++) {
                // 发送消息
                ProducerRecord<String, String> record = new ProducerRecord<>("quickstart", "key-" + i, "value-" + i);
                producer.send(record, (RecordMetadata metadata, Exception exception) -> {
                    if (exception == null) {
                        System.out.printf("Sent message: (key=%s, value=%s) at offset %d%n", record.key(), record.value(), metadata.offset());
                    } else {
                        exception.printStackTrace();
                    }
                });
            }
        } finally {
            // 关闭生产者,释放资源
            producer.close();
        }
    }
}

3.4 运行和验证

运行KafkaProducerExample.java,并观察控制台输出。你将看到消息被发送到Kafka,并打印出每条消息的键、值和偏移量。

相关推荐
运维&陈同学2 小时前
【zookeeper01】消息队列与微服务之zookeeper工作原理
运维·分布式·微服务·zookeeper·云原生·架构·消息队列
时差9532 小时前
Flink Standalone集群模式安装部署
大数据·分布式·flink·部署
菠萝咕噜肉i2 小时前
超详细:Redis分布式锁
数据库·redis·分布式·缓存·分布式锁
Mephisto.java2 小时前
【大数据学习 | Spark】Spark的改变分区的算子
大数据·elasticsearch·oracle·spark·kafka·memcache
只因在人海中多看了你一眼5 小时前
分布式缓存 + 数据存储 + 消息队列知识体系
分布式·缓存
zhixingheyi_tian8 小时前
Spark 之 Aggregate
大数据·分布式·spark
KevinAha9 小时前
Kafka 3.5 源码导读
kafka
求积分不加C9 小时前
-bash: ./kafka-topics.sh: No such file or directory--解决方案
分布式·kafka
nathan05299 小时前
javaer快速上手kafka
分布式·kafka
激流丶12 小时前
【Kafka 实战】Kafka 如何保证消息的顺序性?
java·后端·kafka