Kafka常用命令

如何进行到Docker容器中运行Kafka:
  • docker ps 找到CONTAINER ID 去前三位
  • 执行docker exec -it bbd bin/bash进入到docker中
  • 进入到/opt/bitnami/kafka/bin中执行kafka脚本

1.查看已经创建的所有topics
复制代码
bin/kafka-topics.sh --list --bootstrap-server kafka1:9093 --command-config ./config/scram_common.properties

注意:因为此kafka是加了认证的,必须先读取认证文件里的密码才能查看topics, 如下是认证文件的代码:--command-config ./config/scram_common.properties

该命令通过 Kafka CLI 工具连接到指定的 Kafka 集群(kafka1:9093),使用 SCRAM 认证配置文件(scram_common.properties),列出当前集群中的所有 Topic。

2. 创建topic
复制代码
bin/kafka-topics.sh --bootstrap-server kafka1:9093 --topic WJ-TEST --create --partitions 1 --replication-factor 3 --command-config ./config/scram_common.properties

该命令通过 Kafka CLI 工具在指定的 Kafka 集群(kafka1:9093)中创建一个名为 WJ-TEST 的 Topic,配置为 1 个分区、3 个副本,并使用 SCRAM 认证配置文件(scram_common.properties)进行安全认证。

3.查看已经创建的topic详情
复制代码
bin/kafka-topics.sh --bootstrap-server kafka1:9093 --topic KAFKA-DIM-TOPIC --command-config ./config/scram_common.properties --describe

或者describe放中间也可以:

复制代码
bin/kafka-topics.sh --bootstrap-server kafka1:9093 --topic WJ-TEST --describe --command-config ./config/scram_common.properties

该命令通过 Kafka CLI 工具连接到指定的 Kafka 集群(kafka1:9093),使用 SCRAM 认证配置文件(scram_common.properties),查看名为 WJ-TEST 的 Topic 的详细信息(如分区数、副本数、ISR 等)

4.修改已经建好的topic的分区数(注意这里只能新增,不能减少
复制代码
bin/kafka-topics.sh --bootstrap-server kafka1:9093 --topic WJ-TEST --alter --partitions 3  --command-config ./config/scram_common.properties

该命令通过 Kafka CLI 工具连接到指定的 Kafka 集群(kafka1:9093),使用 SCRAM 认证配置文件(scram_common.properties),将名为 WJ-TEST 的 Topic 的分区数从原来的分区数增加到 3**(只能增加,不能减少)**。

5. 向指定topic中生产消息
复制代码
bin/kafka-console-producer.sh --bootstrap-server kafka1:9093 --topic WJ-TEST --producer.config ./config/scram_common.properties

该命令通过 Kafka CLI 工具连接到指定的 Kafka 集群(kafka1:9093),使用 SCRAM 认证配置文件(scram_common.properties),向名为 WJ-TEST 的 Topic 中生产消息。

生产的消息:

复制代码
Hello, Kafka!
This is a test message.
Message 3
6. 向指定的topic消费消息
复制代码
bin/kafka-console-consumer.sh --bootstrap-server kafka1:9093 --topic WJ-TEST --consumer.config ./config/scram_common.properties --from-beginning

该命令通过 Kafka CLI 工具连接到指定的 Kafka 集群(kafka1:9093),使用 SCRAM 认证配置文件(scram_common.properties),从 WJ-TEST Topic 中从头开始(--from-beginning)消费消息,并将消费到的消息打印到控制台。

消费到的消息:

7.删除指定topic
复制代码
bin/kafka-topics.sh --bootstrap-server kafka1:9093 --delete --topic WJ-TEST --command-config ./config/scram_common.properties

该代码通过指定的 scram_common.properties 配置文件,连接到 Kafka1 的 9093 端口,并删除名为 WJ-TEST 的 Kafka 主题。

8. 查看操作主题命令参数

bin/kafka-topics.sh

|-----------------------------------------------------|--------------------------|
| 参数 | 描述 |
| --bootstrap-server <String: server toconnect to> | 连接的Kafka Broker主机名称和端口号。 |
| --topic <String: topic> | 操作的topic名称。 |
| --create | 创建主题。 |
| --delete | 删除主题。 |
| --alter | 修改主题。 |
| --list | 查看所有主题。 |
| --describe | 查看主题详细描述。 |
| --partitions <Integer: # of partitions> | 设置分区数。 |
| --replication-factor<Integer: replication factor> | 设置分区副本。 |
| --config <String: name=value> | 更新系统默认的配置。 |

9. 生产者命令行操作

bin/kafka-console-producer.sh

|----------------------------------------------------|--------------------------|
| 参数 | 描述 |
| --bootstrap-server <String: server toconnect to> | 连接的Kafka Broker主机名称和端口号。 |
| --topic <String: topic> | 操作的topic名称。 |

10. 消费者命令行操作

bin/kafka-console-consumer.sh

|----------------------------------------------------|--------------------------|
| 参数 | 描述 |
| --bootstrap-server <String: server toconnect to> | 连接的Kafka Broker主机名称和端口号。 |
| --topic <String: topic> | 操作的topic名称。 |
| --from-beginning | 从头开始消费。 |
| --group <String: consumer group id> | 指定消费者组名称。 |

相关推荐
喜闻乐见天44 分钟前
Kafka双机KRaft集群部署
kafka
Matrix705 小时前
Kafka 单节点测试环境部署实战
大数据·kafka
电磁脑机6 小时前
人脑电磁路由拓扑与外耦合脑机接口基础理论
分布式·神经网络·安全·交互
马剑威(威哥爱编程)6 小时前
HarmonyOS 6.0 分布式任务调度 API 详解:把多设备玩成单设备
分布式·华为·harmonyos
嵌入式老牛6 小时前
SST专题3-1 基于光分路器的MMC分布式控制系统架构
分布式·架构·驱动·光纤·sst
F_D_Z7 小时前
Word Embedding :从分布式假设到神经网络语言模型
分布式·word·embedding
feifeigo1238 小时前
航天器交会的分布式模型预测控制(DMPC)MATLAB实现
开发语言·分布式·matlab
CET中电技术9 小时前
CET中电技术如何助光伏企业在“四可“时代抢占先机?
分布式
Elastic 中国社区官方博客9 小时前
将 Logstash 管道从 Azure Event Hubs 迁移到 Kafka 输入插件
大数据·数据库·elasticsearch·microsoft·搜索引擎·kafka·azure
人间打气筒(Ada)9 小时前
「码动四季·开源同行」go语言:如何使用 ELK 进行日志采集以及统一处理?
开发语言·分布式·elk·go·日志收集·分布式日志系统