kafka 开启用户认证

1.kafka_server_jaas.conf

复制代码
KafkaServer {  
   org.apache.kafka.common.security.plain.PlainLoginModule required  
   username="admin"  
   password="admin"  
   user_admin="admin"  
   user_reader="reader"
   user_writer="writer";  
};

2.kafka_client_jaas.conf

复制代码
KafkaClient {
   org.apache.kafka.common.security.plain.PlainLoginModule required
   username="writer"  
   password="writer";   
};

3.server.properties

复制代码
#开启超级用户
super.user.name=admin
super.user.password=admin@2023

############################# Server Basics #############################

broker.id=0

############################# Socket Server Settings #############################
#开启ACL
authorizer.class.name=kafka.security.auth.SimpleAclAuthorizer
#使用SASL_PLAINTEXT协议
listeners=SASL_PLAINTEXT://127.0.0.1:9092  
#Broker之间不启用ssl
security.inter.broker.protocol=SASL_PLAINTEXT 
#PLAIN认证
sasl.enabled.mechanisms=PLAIN
#broker之间开启PLAIN认证
sasl.mechanism.inter.broker.protocol=PLAIN  


allow.everyone.if.no.acl.found=true

num.network.threads=3

num.io.threads=8

socket.send.buffer.bytes=102400

socket.receive.buffer.bytes=102400

socket.request.max.bytes=104857600


############################# Log Basics #############################
log.dirs=/data/kafka/kafka_data/log/kafka

num.partitions=1

num.recovery.threads.per.data.dir=1

############################# Internal Topic Settings  #############################
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1

############################# Log Flush Policy #############################
#log.flush.interval.messages=10000

#log.flush.interval.ms=1000

############################# Log Retention Policy #############################
log.retention.hours=168

#log.retention.bytes=1073741824

log.segment.bytes=1073741824

log.retention.check.interval.ms=300000

############################# Zookeeper #############################
zookeeper.connect=10.22.245.173:2181

zookeeper.connection.timeout.ms=6000

############################# Group Coordinator Settings #############################
group.initial.rebalance.delay.ms=0
port=9092 
host.name=127.0.0.1
zookeeper.connect=127.0.0.1:2181

4.consumer.properties

复制代码
security.protocol=SASL_PLAINTEXT

sasl.mechanism=PLAIN

5.producer.properties

复制代码
security.protocol=SASL_PLAINTEXT

sasl.mechanism=PLAIN

6.kafka-server-start.sh

复制代码
export KAFKA_OPTS=" -Djava.security.auth.login.config=/data/kafka/kafka2.3/config/kafka_server_jaas.conf"

参考 kafka 设置用户密码和通过SpringBoot测试_kafka设置密码-CSDN博客

相关推荐
却道天凉_好个秋3 小时前
系统架构设计(九):分布式架构与微服务
分布式·架构·系统架构
predisw6 小时前
kafka connect 大概了解
分布式·kafka
计算机毕设定制辅导-无忧学长8 小时前
RabbitMQ 快速上手:安装配置与 HelloWorld 实践(二)
分布式·rabbitmq·ruby
啾啾Fun9 小时前
【Java微服务组件】分布式协调P1-数据共享中心简单设计与实现
java·分布式·微服务
梦想画家12 小时前
Scrapy进阶实践指南:从脚本运行到分布式爬取
分布式·scrapy·数据工程
东阳马生架构13 小时前
Seata源码—5.全局事务的创建与返回处理二
分布式·seata·分布式事务
张伯毅14 小时前
Flink SQL 将kafka topic的数据写到另外一个topic里面
sql·flink·kafka
掘金-我是哪吒14 小时前
分布式微服务系统架构第133集:运维服务器6年经验,高并发,大数据量系统
运维·服务器·分布式·微服务·系统架构
尘世壹俗人16 小时前
hadoop.proxyuser.代理用户.授信域 用来干什么的
大数据·hadoop·分布式
白露与泡影17 小时前
基于Mongodb的分布式文件存储实现
分布式·mongodb·wpf