kafka 常用命令

1 集群操作

1.1 启动集群

  1. 在每个设备启动Zookeeper:

    bash 复制代码
    bin/zookeeper-server-start.sh config/zookeeper.properties

    若不想显示日志信息:

    shell 复制代码
    bin/zookeeper-server-start.sh config/zookeeper.properties > /dev/null 2>&1 &
  2. 在每个设备启动Kafka服务器:

    bash 复制代码
    bin/kafka-server-start.sh config/server.properties

    若不想显示日志信息:

    shell 复制代码
    bin/kafka-server-start.sh config/server.properties > /dev/null 2>&1 &

1.2 关闭集群

  1. 在每个设备关闭Kafka服务器:

    bash 复制代码
    bin/kafka-server-stop.sh
  2. 在每个设备关闭Zookeeper:

    bash 复制代码
    bin/zookeeper-server-stop.sh

1.3 检查Kafka状态

查看Kafka服务的状态可以使用kafka-broker-api-versions.sh

bash 复制代码
bin/kafka-broker-api-versions.sh --bootstrap-server localhost:9092

1.4 重新分配分区

重新分配分区通常用于扩展Kafka集群时,将主题的分区重新分配到新的broker上。使用以下步骤进行分区重新分配:

  1. 生成重新分配方案

    bash 复制代码
    bin/kafka-reassign-partitions.sh --generate --zookeeper localhost:2181 --topics-to-move-json-file topics-to-move.json --broker-list "0,1,2"
  2. 执行重新分配

    bash 复制代码
    bin/kafka-reassign-partitions.sh --execute --zookeeper localhost:2181 --reassignment-json-file reassignment.json
  3. 查看重新分配状态

    bash 复制代码
    bin/kafka-reassign-partitions.sh --verify --zookeeper localhost:2181 --reassignment-json-file reassignment.json

1.5 查看ZooKeeper中的Kafka数据

你可以使用ZooKeeper的命令行客户端zkCli.sh来查看Kafka在ZooKeeper中的数据:

bash 复制代码
bin/zookeeper-shell.sh localhost:2181

进入ZooKeeper shell后,可以使用以下命令:

  • 查看根节点:

    shell 复制代码
    ls /
  • 查看Kafka的brokers信息:

    shell 复制代码
    ls /brokers/ids
  • 查看某个节点的数据:

    shell 复制代码
    get /brokers/ids/0

2 主题操作

2.1 相关参数

  • --topic:指定主题的名称。
  • --bootstrap-server:Kafka broker的地址。
  • --replication-factor:副本因子,即每个主题分区的副本数。
  • --partitions:分区数。

2.2 创建主题

创建主题test-topic

bash 复制代码
bin/kafka-topics.sh --create --topic test-topic --bootstrap-server localhost:9092 --replication-factor 3 --partitions 2

2.3 查看主题

列出所有主题:

bash 复制代码
bin/kafka-topics.sh --list --bootstrap-server localhost:9092

描述主题test-topic的详细信息:

bash 复制代码
bin/kafka-topics.sh --describe --topic test-topic --bootstrap-server localhost:9092

2.4 删除主题

删除主题test-topic

bash 复制代码
bin/kafka-topics.sh --delete --topic test-topic --bootstrap-server localhost:9092

2.5 修改主题

修改主题test-topic

shell 复制代码
bin/kafka-topics.sh --alter --topic test-topic --bootstrap-server your-kafka-bootstrap-server:9092 --config max.message.bytes=10485760

3 生产与消费

3.1 生产消息

使用kafka-console-producer.sh发送消息到Kafka主题:

bash 复制代码
bin/kafka-console-producer.sh --topic test-topic --bootstrap-server localhost:9092

启动后可以输入消息并按回车发送。

3.2 消费消息

使用kafka-console-consumer.sh从Kafka主题消费消息:

bash 复制代码
bin/kafka-console-consumer.sh --topic test-topic --from-beginning --bootstrap-server localhost:9092

参数说明:

  • --from-beginning:表示从主题的开始位置消费消息。
相关推荐
武子康1 天前
大数据-243 离线数仓 - 实战电商核心交易增量导入(DataX - HDFS - Hive 分区
大数据·后端·apache hive
代码匠心3 天前
从零开始学Flink:Flink SQL四大Join解析
大数据·flink·flink sql·大数据处理
武子康4 天前
大数据-242 离线数仓 - DataX 实战:MySQL 全量/增量导入 HDFS + Hive 分区(离线数仓 ODS
大数据·后端·apache hive
SelectDB5 天前
易车 × Apache Doris:构建湖仓一体新架构,加速 AI 业务融合实践
大数据·agent·mcp
武子康5 天前
大数据-241 离线数仓 - 实战:电商核心交易数据模型与 MySQL 源表设计(订单/商品/品类/店铺/支付)
大数据·后端·mysql
茶杯梦轩5 天前
从零起步学习RabbitMQ || 第三章:RabbitMQ的生产者、Broker、消费者如何保证消息不丢失(可靠性)详解
分布式·后端·面试
IvanCodes5 天前
一、消息队列理论基础与Kafka架构价值解析
大数据·后端·kafka
武子康6 天前
大数据-240 离线数仓 - 广告业务 Hive ADS 实战:DataX 将 HDFS 分区表导出到 MySQL
大数据·后端·apache hive
回家路上绕了弯7 天前
深入解析Agent Subagent架构:原理、协同逻辑与实战落地指南
分布式·后端
初次攀爬者7 天前
Kafka的Rebalance基础介绍
后端·kafka