【kafka】基本命令

创建 Kafka Topic 的命令

以下是创建 Kafka Topic 的几种常用方法:

1. 使用 kafka-topics.sh 基础命令(Kafka 自带工具)

复制代码
bin/kafka-topics.sh --create \
  --bootstrap-server <broker地址:端口> \
  --topic <topic名称> \
  --partitions <分区数> \
  --replication-factor <副本数>
复制代码
bin/kafka-topics.sh --create \
  --bootstrap-server localhost:9092 \
  --topic my_new_topic \
  --partitions 3 \
  --replication-factor 2

bin/kafka-topics.sh --create --bootstrap-server localhost:9092 --topic test01_topic --partitions 2 --replication-factor 2

2. 带额外配置的创建命令

复制代码
bin/kafka-topics.sh --create \
  --bootstrap-server localhost:9092 \
  --topic my_config_topic \
  --partitions 5 \
  --replication-factor 1 \
  --config retention.ms=172800000 \
  --config segment.bytes=1073741824

3. 使用 ZooKeeper 的旧版命令(Kafka 2.2 之前版本)

复制代码
bin/kafka-topics.sh --create \
  --zookeeper localhost:2181 \
  --topic legacy_topic \
  --partitions 2 \
  --replication-factor 1

4. 使用 Kafka API (Java) 创建 Topic

复制代码
Properties props = new Properties();
props.put("bootstrap.servers", "localhost:9092");
AdminClient admin = AdminClient.create(props);

NewTopic newTopic = new NewTopic("my_api_topic", 3, (short) 1);
newTopic.configs(Map.of("retention.ms", "86400000"));

CreateTopicsResult result = admin.createTopics(Collections.singletonList(newTopic));
result.all().get(); // 等待创建完成

5. 验证 Topic 是否创建成功

复制代码
bin/kafka-topics.sh --list --bootstrap-server localhost:9092
bin/kafka-topics.sh --describe --topic my_new_topic --bootstrap-server localhost:9092

常用配置参数

可以在创建时通过 --config 指定:

  • retention.ms - 消息保留时间(毫秒)

  • `segment.bytes

查看 Kafka 所有 Topic 的命令

以下是几种查看 Kafka 中所有 Topic 的常用方法:

1. 使用 kafka-topics.sh 基础命令(推荐)

复制代码
bin/kafka-topics.sh --list --bootstrap-server <broker地址:端口>
bin/kafka-topics.sh --list --bootstrap-server localhost:9092

2. 查看所有 Topic 的详细信息(包括分区、副本等)

复制代码
bin/kafka-topics.sh --describe --bootstrap-server <broker地址:端口>
bin/kafka-topics.sh --describe --bootstrap-server localhost:9092

3. 使用 ZooKeeper 的旧版命令(Kafka 2.2 之前版本)

复制代码
bin/kafka-topics.sh --list --zookeeper <zookeeper地址:端口>
bin/kafka-topics.sh --list --zookeeper localhost:2181

4. 使用 kafkacat 工具

复制代码
kafkacat -L -b <broker地址:端口>
kafkacat -L -b localhost:9092

5. 使用 Kafka API (Java)

复制代码
Properties props = new Properties();
props.put("bootstrap.servers", "localhost:9092");
AdminClient admin = AdminClient.create(props);

ListTopicsResult topics = admin.listTopics();
Set<String> topicNames = topics.names().get();

topicNames.forEach(System.out::println);

6. 查看包含内部 Topic 的所有 Topic(如 __consumer_offsets)

复制代码
bin/kafka-topics.sh --list --bootstrap-server localhost:9092 --exclude-internal

7. 使用正则表达式过滤 Topic

复制代码
bin/kafka-topics.sh --list --bootstrap-server localhost:9092 | grep "your_pattern"

注意事项

  1. 新版本 Kafka(2.2+)推荐使用 --bootstrap-server 而不是 --zookeeper

  2. 生产环境中可能需要添加认证参数,如:

    复制代码
    bin/kafka-topics.sh --list --bootstrap-server localhost:9092 --command-config admin.properties
  3. 对于大型集群,列出所有 Topic 可能需要一些时间

查看 Kafka Topic 分区信息的命令

以下是几种查看 Kafka Topic 分区信息的常用方法:

1. 使用 kafka-topics.sh 工具(Kafka 自带)

复制代码
bin/kafka-topics.sh --describe --topic <topic名称> --bootstrap-server <broker地址:端口>
bin/kafka-topics.sh --describe --topic my_topic --bootstrap-server localhost:9092

2. 查看所有 topic 的分区信息

复制代码
bin/kafka-topics.sh --list --bootstrap-server <broker地址:端口>
bin/kafka-topics.sh --describe --bootstrap-server <broker地址:端口>

bin/kafka-topics.sh --describe --topic my_topic --bootstrap-server localhost:9092

3. 使用 kafkacat 工具

复制代码
kafkacat -L -b <broker地址:端口> -t <topic名称>

4. 使用 Kafka API (Java)

复制代码
Properties props = new Properties();
props.put("bootstrap.servers", "localhost:9092");
AdminClient admin = AdminClient.create(props);

DescribeTopicsResult result = admin.describeTopics(Collections.singletonList("my_topic"));
TopicDescription description = result.all().get().get("my_topic");

description.partitions().forEach(partition -> {
    System.out.println("Partition: " + partition.partition());
    System.out.println("Leader: " + partition.leader());
    System.out.println("Replicas: " + partition.replicas());
    System.out.println("ISR: " + partition.isr());
});

输出信息解释

复制代码
Topic: my_topic	PartitionCount: 3	ReplicationFactor: 2	Configs:
	Topic: my_topic	Partition: 0	Leader: 1	Replicas: 1,2	Isr: 1,2
	Topic: my_topic	Partition: 1	Leader: 2	Replicas: 2,0	Isr: 2,0
	Topic: my_topic	Partition: 2	Leader: 0	Replicas: 0,1	Isr: 0,1

其中:

  • PartitionCount: 分区总数

  • ReplicationFactor: 副本因子数

  • Leader: 负责该分区读写的主 broker

  • Replicas: 该分区的所有副本所在的 broker

  • Isr: 同步中的副本(In-Sync Replicas)

相关推荐
THMAIL18 分钟前
量化基金从小白到大师 - 金融数据获取大全:从免费API到Tick级数据实战指南
人工智能·python·深度学习·算法·机器学习·金融·kafka
喂完待续7 小时前
【Big Data】Apache Kafka 分布式流处理平台的实时处理实践与洞察
分布式·kafka·消息队列·big data·数据处理·序列晋升
mask哥10 小时前
详解flink性能优化
java·大数据·微服务·性能优化·flink·kafka·stream
hqxstudying10 小时前
Kafka 深入研究:从架构革新到性能优化的全面解析
java·开发语言·微服务·kafka·springcloud
子非鱼@Itfuture18 小时前
【Kafka】Kafka使用场景用例&Kafka用例图
分布式·中间件·kafka
王嘉俊92519 小时前
深入浅出 全面剖析消息队列(Kafka,RabbitMQ,RocketMQ 等)
分布式·kafka·消息队列·rabbitmq·rocketmq
码luffyliu2 天前
消息队列 :Kafka 核心要点总结
分布式·kafka·消息队列·mq
运维老司机2 天前
Kafka 开启 SASL_PLAINTEXT 双监听器认证(内网/外网)
分布式·kafka·linq
冰芒芒2 天前
Kafka如何保证高可用
kafka
叫我阿柒啊2 天前
从全栈开发到云原生:一位Java工程师的实战经验分享
java·spring boot·redis·云原生·kafka·vue·全栈开发