kafka 2.X+zookeeper3.X 权限控制

Kafka 和 Zookeeper 权限控制

1️⃣ Kafka 和 Zookeeper 权限控制的概念

(1)Kafka 权限控制

Kafka 权限控制主要针对 主题(topic)和消费组(consumer group) 。核心概念是 ACL(Access Control List,访问控制列表)

  • 目的:控制谁能读写某个 topic,谁能创建或删除 topic,以及谁能操作消费组。

  • 实现方式 :通过 SASL+ACL,也可以结合 SSL 客户端证书认证。

  • 操作粒度

    • TOPIC:读(Read)、写(Write)、创建(Create)、删除(Delete)、修改配置(Alter)、描述(Describe)等。

    • GROUP:消费组操作权限,如提交 offset、加入消费组。

    • CLUSTER:集群管理操作权限,如创建 topic、删除 topic、查看 broker 状态。

示例:

资源类型 用户 权限
TOPIC User:producer WRITE
TOPIC User:consumer READ
GROUP User:consumer READ

(2)Zookeeper 权限控制

Zookeeper 是 Kafka 的元数据存储(存储 topic、分区信息、消费者偏移量等)。如果不做权限控制,任何人都能连接 ZK 修改元数据,风险很大。

  • Zookeeper 权限控制 基于 ACL + Scheme

    • world:anyone → 任何人都可访问

    • auth → 认证用户可访问

    • digest → 用户名+密码认证

  • Kafka 使用 :Kafka Broker 使用 Zookeeper 存储元数据时,会配置 zookeeper.set.acl=true,并通过 SASL/Digest 用户认证。


2️⃣ 为什么需要权限控制

权限控制的必要性主要有三点:

  1. 安全性

    • 阻止未授权用户读取或写入敏感数据,例如生产者向 topic 写入消息,消费者读取消息。

    • 阻止恶意用户篡改元数据(topic、分区、副本分配等)。

  2. 数据完整性

    • 只有有权限的用户才能修改 topic 配置、消费组偏移量,避免错误操作破坏业务。
  3. 审计与多租户支持

    • 企业环境中不同团队或服务可能共享 Kafka 集群,需要严格控制访问权限,保证每个团队只能操作自己的 topic。

3️⃣ Kafka 权限控制流程

  1. 认证(Authentication)

    • 确认客户端身份,例如:

      • SASL/SCRAM:用户名+密码

      • SSL:证书认证

    • 客户端首先通过 SASL 验证身份

  2. 授权(Authorization)

    • Broker 根据 ACL 判断该用户是否允许执行该操作:

      • 写入 topic?

      • 读取 topic?

      • 操作消费组?

  3. ACL 配置方式

    • 使用 Kafka 内置工具 kafka-acls.sh 添加/修改/删除 ACL

    • ACL 记录存储在 Zookeeper 或 Kafka 内部(取决于版本)

好的,我帮你把你整理的 Kafka 2.x + Zookeeper 3.x 权限控制步骤精简、系统化,并加上逻辑顺序说明,方便直接参考或执行:


🛡2 Kafka + Zookeeper 权限控制实操(2.x + 3.x)

1️⃣ Zookeeper 权限控制

(1)配置 Zookeeper 启用 SASL

编辑 zoo.cfg

复制代码
tickTime=2000
initLimit=1
syncLimit=5
dataDir=/data/var/lib/zookeeper/data
dataLogDir=/data/var/lib/zookeeper/datalog
clientPort=2181
admin.serverPort=8888
maxClientCnxns=3000
autopurge.snapRetainCount=3
autopurge.purgeInterval=24
4lw.commands.whitelist=conf,stat,srvr,mntr,envi

# 启用 SASL
authProvider.1=org.apache.zookeeper.server.auth.SASLAuthenticationProvider
jaasLoginRenew=3600000
requireClientAuthScheme=sasl
zookeeper.sasl.client=true

(2)配置 Zookeeper JAAS

创建 zk_jaas.conf

复制代码
Server {
    org.apache.zookeeper.server.auth.DigestLoginModule required
    username="admin"
    password="HDKJ!@#2011"
    user_kafka="HDKJ!@#2011";
};

(3)修改 Zookeeper 启动脚本

zkEnv.sh 最后一行添加:

复制代码
export SERVER_JVMFLAGS="-Djava.security.auth.login.config=/data/software/zookeeper/conf/zk_jaas.conf"

启动zk

./bin/zkServer.sh start


2️⃣ Kafka SASL 用户配置

(1)创建或修改 SCRAM 用户

复制代码
./bin/kafka-configs.sh --zookeeper yourIP:2181 \
  --alter --add-config 'SCRAM-SHA-256=[iterations=8192,password=HDKJ!@#2011],SCRAM-SHA-512=[password=HDKJ!@#2011]' \
  --entity-type users --entity-name admin

./bin/kafka-configs.sh --zookeeper yourIP:2181 \
  --alter --add-config 'SCRAM-SHA-256=[iterations=8192,password=HDKJ!@#2011],SCRAM-SHA-512=[password=HDKJ!@#2011]' \
  --entity-type users --entity-name producer

./bin/kafka-configs.sh --zookeeper yourIP:2181 \
  --alter --add-config 'SCRAM-SHA-256=[iterations=8192,password=HDKJ!@#2011],SCRAM-SHA-512=[password=HDKJ!@#2011]' \
  --entity-type users --entity-name consumer

(2)查看用户信息

复制代码
./bin/kafka-configs.sh --zookeeper yourIP:2181 --describe --entity-type users

3️⃣ Kafka JAAS 配置

创建 kafka_server_jaas.conf

复制代码
KafkaServer {
    org.apache.kafka.common.security.scram.ScramLoginModule required
    username="admin"
    password="HDKJ!@#2011"
    user_admin="HDKJ!@#2011"
    user_producer="HDKJ!@#2011"
    user_consumer="HDKJ!@#2011";
};

KafkaClient {
    org.apache.kafka.common.security.scram.ScramLoginModule required
    username="admin"
    password="HDKJ!@#2011"
    user_producer="HDKJ!@#2011"
    user_consumer="HDKJ!@#2011";
};

Client {
    org.apache.kafka.common.security.scram.ScramLoginModule required
    username="kafka"
    password="HDKJ!@#2011";
};

4️⃣ Kafka Broker 配置

编辑 server.properties

复制代码
broker.id=0
listeners=SASL_PLAINTEXT://:9092
advertised.listeners=SASL_PLAINTEXT://yourIP:9092
sasl.enabled.mechanisms=SCRAM-SHA-256,PLAIN
sasl.mechanism.inter.broker.protocol=SCRAM-SHA-256
security.inter.broker.protocol=SASL_PLAINTEXT
allow.everyone.if.no.acl.found=false
authorizer.class.name=kafka.security.auth.SimpleAclAuthorizer
super.users=User:admin
zookeeper.connect=yourIP:2181

(2)Kafka 启动脚本添加 JAAS

kafka-server-start.sh 最后一行:

复制代码
exec $base_dir/kafka-run-class.sh $EXTRA_ARGS -Djava.security.auth.login.config=/data/software/kafka/config/kafka_server_jaas.conf kafka.Kafka "$@"

5️⃣ Kafka 客户端配置

(1)Consumer/Producer 配置文件

consumer.conf

复制代码
security.protocol=SASL_PLAINTEXT
sasl.mechanism=SCRAM-SHA-256
sasl.jaas.config=org.apache.kafka.common.security.scram.ScramLoginModule required \
   username="consumer" \
   password="HDKJ!@#2011";

producer.conf

复制代码
security.protocol=SASL_PLAINTEXT
sasl.mechanism=SCRAM-SHA-256
sasl.jaas.config=org.apache.kafka.common.security.scram.ScramLoginModule required \
   username="producer" \
   password="HDKJ!@#2011";

(2)Console 工具脚本添加 JAAS

kafka-console-producer.shkafka-console-consumer.sh 中:

复制代码
export KAFKA_OPTS="-Djava.security.auth.login.config=/data/software/kafka/config/kafka_server_jaas.conf"

6️⃣ Kafka ACL 配置

(1)创建 Topic

复制代码
./bin/kafka-topics.sh --zookeeper yourIP:2181 --create --replication-factor 1 --partitions 1 --topic test_topic

(2)配置写权限(Producer)

复制代码
./bin/kafka-acls.sh --authorizer-properties zookeeper.connect=yourIP:2181 \
  --add --allow-principal User:producer --operation Write --topic test_topic

(3)配置读权限(Consumer)

复制代码
# Topic 读取权限
./bin/kafka-acls.sh --authorizer-properties zookeeper.connect=yourIP:2181 \
  --add --allow-principal User:consumer --operation Read --topic test_topic

# 消费组权限
./bin/kafka-acls.sh --authorizer-properties zookeeper.connect=yourIP:2181 \
  --add --allow-principal User:consumer --operation Read --group test-group

7️⃣ 启动 Kafka 集群

复制代码
./bin/kafka-server-start.sh -daemon ./config/server.properties
tail -100f logs/server.log

8️⃣ 测试

(1)写入消息

复制代码
./bin/kafka-console-producer.sh --bootstrap-server yourIP:9092 --topic test_topic --producer.config /data/software/kafka/config/producer.conf

(2)读取消息

复制代码
./bin/kafka-console-consumer.sh --bootstrap-server yourIP:9092 --topic test_topic --group test-group --from-beginning --consumer.config /data/software/kafka/config/consumer.conf

好的,我帮你画一张 Kafka 2.x + Zookeeper 3.x 权限控制流程图 的概念图,清楚展示认证和授权流程。


9,Kafka + Zookeeper 权限控制流程图(概念)

复制代码
            +-----------------+
            |   Kafka Client  |
            |  Producer/Consumer
            |  JAAS 配置      |
            |  username/password
            +--------+--------+
                     |
                     | SASL认证请求 (SCRAM)
                     v
            +-----------------+
            |   Kafka Broker  |
            |  JAAS 配置      |
            |  user_admin=...,|
            |  user_producer=...|
            +--------+--------+
                     |
        认证成功?     |        ACL检查
        +------------v----------------+
        |  ACL授权层                  |
        |  Topic权限/Consumer Group权限|
        +------------+----------------+
                     |
        授权通过?    |
        +------------v----------------+
        |  Kafka Topic/Partition       |
        |  消息读写操作               |
        +-----------------------------+
                     ^
                     |
            +-----------------+
            | Zookeeper       |
            | 用户验证 (Digest/SASL)
            | 元数据管理       |
            +-----------------+

流程说明

  1. 客户端认证

    • 客户端通过 sasl.jaas.config 提供用户名和密码。

    • Kafka Broker 根据自身 JAAS 配置和 SCRAM 存储信息验证身份。

  2. Zookeeper 验证

    • Broker 访问 ZK 获取元数据或提交 offset,也需要 ZK SASL 认证。
  3. ACL 授权

    • Broker 检查客户端请求的 Topic/Consumer Group 是否有权限。

    • 通过 kafka-acls.sh 配置的 ACL 决定是否允许读写。

  4. 消息读写

    • 认证和授权成功后,客户端才可以进行消息生产或消费。

借鉴:Apache zookeeper kafka 开启SASL安全认证 ------ 筑梦之路_kafka sasl认证-CSDN博客

相关推荐
陈果然DeepVersion3 小时前
Java大厂面试真题:Spring Boot+Kafka+AI智能客服场景全流程解析(九)
java·人工智能·spring boot·微服务·kafka·面试题·rag
Ribou16 小时前
无zookeeper Kafka 4.1.0 Raft 集群搭建
分布式·zookeeper·kafka
Naylor20 小时前
玩转kafka
spring boot·kafka
linyb极客之路1 天前
Kafka 租户隔离全攻略:五种生产级方案实战与选型指南
kafka
临风赏月1 天前
Hadoop、Kafka、Flink、Spark、Hive五大组件运维常用操作命令
hadoop·flink·kafka
陈果然DeepVersion2 天前
Java大厂面试真题:Spring Boot+Kafka+AI智能客服场景全流程解析(五)
java·spring boot·kafka·向量数据库·大厂面试·rag·ai智能客服
陈果然DeepVersion2 天前
Java大厂面试真题:Spring Boot+Kafka+AI智能客服场景全流程解析(六)
spring boot·kafka·消息队列·向量数据库·java面试·rag·ai智能客服
陈果然DeepVersion2 天前
Java大厂面试真题:Spring Boot+Kafka+AI智能客服场景全流程解析(四)
java·spring boot·微服务·kafka·面试题·rag·ai智能客服
SeaDhdhdhdhdh2 天前
kafka 延迟消费配置
kafka·延迟消费