kafka、zookeeper、flink测试环境、docker

1、kafka环境单点

根据官网版本说明(3.6.0)发布,zookeeper依旧在使用状态,预期在4.0.0大版本的时候彻底抛弃zookeeper使用KRaft(Apache Kafka)官方并给出了zk迁移KR的文档

2、使用docker启动单点kafka

1、首先将kafka启动命令,存储为.service结尾的系统服务文件,并指定存储在/etc/systemd/system/目录下

2、kafk.service文件

bash 复制代码
[Unit]
Description=kafka
After=docker.service
Requires=docker.service
[Service]
TimeoutStartSec=0
ExecStartPre=-/usr/bin/docker rm kafka
ExecStart=/usr/bin/
        docker run \
        --name kafka \
        -v /etc/localtime:/etc/localtime:ro \
        --log-driver=none \
        -e HOSTNAME=kafka \
        -p 9092:9092 \
        -e KAFKA_BROKER_ID=1 \
        -e KAFKA_CFG_LISTENERS=PLAINTEXT://:9092 \
        -e KAFKA_CFG_ADVERTISED_LISTENERS=PLAINTEXT://127.0.0.1:9092 \
        -e KAFKA_CFG_ZOOKEEPER_CONNECT=zookeeper:2181 \
        -e ALLOW_PLAINTEXT_LISTENER=yes \
       wurstmeister/kafka #kafka版本哦
ExecStop=/usr/bin/docker kill kafka
Restart=always
RestartSec=5
[Install]
WantedBy=multi-user.target

3、使用linux系统命令进行启动

systemctl start kafka.service

systemctl logs kafka

systemctl status kafka

systemctl status kafka报错:/etc/systemd/system/kafka.service:14: Missing '='.

2、zookeeper

docker run -d --name zookeeper -p 2181:2181 -t wurstmeister/zookeeper

使用idea连接zookeeper:

1、下载zookeeper插件

2、添加IP和端口

docker run -itd --name=jobmanager --publish 8081:8081 --network flink-network --env FLINK_PROPERTIES="jobmanager.rpc.address: jobmanager" flink:1.13.5-scala_2.12 jobmanager

docker run -itd --name=taskmanager --network flink-network --env FLINK_PROPERTIES="jobmanager.rpc.address: jobmanager" flink:1.13.5-scala_2.12 taskmanager

外部访问:xxx.xxx.xxx.xxx:8081

相关推荐
Jason不在家11 小时前
Flink 本地 idea 调试开启 WebUI
大数据·flink·intellij-idea
猿java14 小时前
使用 Kafka面临的挑战
java·后端·kafka
路上^_^14 小时前
00_概览_kafka
分布式·kafka
CopyLower1 天前
Kafka 消费者状态及高水位(High Watermark)详解
分布式·kafka
信徒_1 天前
kafka
分布式·kafka
happycao1231 天前
Flink 03 | 数据流基本操作
大数据·flink
州周1 天前
Flink一点整理
大数据·flink
灰色孤星A1 天前
Kafka学习笔记(三)Kafka分区和副本机制、自定义分区、消费者指定分区
zookeeper·kafka·kafka分区机制·kafka副本机制·kafka自定义分区
雪球不会消失了1 天前
Kafka快速入门
分布式·kafka
MarkHD2 天前
Flink集群部署
大数据·flink