Win下的Kafka安装配置

一、准备工作(可以不做,毕竟最新版kafka也不需要zk)

1、Windows下安装Zookeeper

(1)官网下载Zookeeper

官网下载地址

(2)解压Zookeeper安装包到指定目录C:\DevelopApp\zookeeper\apache-zookeeper-3.6.4-bin

(3)在当前目录新建data文件夹,即:C:\DevelopApp\zookeeper\apache-zookeeper-3.6.4-bin\data

(4)进入C:\DevelopApp\zookeeper\apache-zookeeper-3.6.4-bin\conf,zoo_sample.cfg文件,改名为zoo.cfg

(5)修改配置文件 zoo.cfg,把dataDir=/tmp/zookeeper修改为C:\\DevelopApp\\zookeeper\\apache-zookeeper-3.6.4-bin\\data,注意此处的路径一定要使用双斜杠!

(6)添加Zookeeper的系统变量:新建环境变量:ZOOKEEPER_HOME=C:\DevelopApp\zookeeper\apache-zookeeper-3.6.4-bin,环境变量Path添加%ZOOKEEPER_HOME%\bin

(7)启动Zookeeper服务:zkServer,客户端连接Zookeeper:zkCli

2、Scala

(1)Scala2.11.12官网下载

官网下载地址

(2)本地点击msi文件安装到C:\DevelopApp\Scala

(3)新增环境变量 %SCALA_HOME%=C:\DevelopApp\Scala,环境变量Path添加条目%SCALA_HOME%\bin

二、kafka4.0的下载安装

1、下载kafka

Kafka下载地址,下载Binary,不要下载Source,自然是.tgz格式,但其实是win&linux合一的安装包,这里下载新版kafka_2.13-4.0.0,前面的2.13指的是kafka编写的scala版本为2.13,后面的4.0.0为kafka版本。

2、安装配置kafka

(1)注意kafka的文件路径不要过长(路径太深),否则win会报错"输入行太长,语法命令不正确",这里放在C:\DevelopApp\kafka

(2)新建logs文件夹,用于存储日志信息。

(3)进入C:\DevelopApp\kafka\config,打开文件server.properties,修改log.dirs为刚才新建的文件夹路径,注意用双斜杠:log.dirs=C:\\DevelopApp\\kafka\\logs。完成服务器配置文件的日志文件的路径指定。

(4)进入C:\DevelopApp\kafka\bin\windows(windows文件夹里是win运行的bat文件,外是linux运行的sh文件),在当前目录下,运行终端,如下:

shell 复制代码
kafka-storage.bat random-uuid

会生成一个随机的cluster.id(集群id),这里为3j3Mo7pURcew1KeUKcvCZw,然后用这个集群id来格式化日志,在cmd输入:

shell 复制代码
kafka-storage.bat format --standalone -t 3j3Mo7pURcew1KeUKcvCZw -c ..\..\config\server.properties

执行命令后,会在logs目录下自动生成元数据信息。

3、启动kafka

shell 复制代码
kafka-server-start.bat ..\..\config\server.properties

到此kafka在win上完成启动,以后只需要直接执行启动kafka这一步就好了。

三、Kafka的简单试用

在目录:C:\DevelopApp\kafka\bin\windows

1、Kafka的消息生产者的启动:

shell 复制代码
kafka-console-producer.bat --bootstrap-server localhost:9092 --topic test1 --property parse.key=true

--property parse.key=true表示强制发送的消息为键值对,这时key和value中间需要用tab键来分隔,可以不写入这条,则能直接发送value。

2、Kafka的消息消费者的启动:

shell 复制代码
kafka-console-consumer.bat --bootstrap-server localhost:9092 --topic test1 --from-beginning

--from-beginning表示消费消息时会从头开始消费,消费掉历史消息,可以不写入这条,则不会消费历史消息,只能消费实时消息。

3、查看Kafka服务器内的所有topic:

shell 复制代码
kafka-topics.bat --list --bootstrap-server 127.0.0.1:9092

4、查看Kafka相应的topic下的信息

shell 复制代码
kafka-topics.bat --describe --topic abcTopic --bootstrap-server 127.0.0.1:9092

5、查看Kafka相应的服务下所有消费者组的group id信息

shell 复制代码
kafka-consumer-groups.bat --bootstrap-server 127.0.0.1:9092 --list
相关推荐
小马过河R3 小时前
不加载PHP OpenTelemetry SDK实现Trace‌与Logs
开发语言·分布式·微服务·云原生·php
计算机毕设定制辅导-无忧学长5 小时前
RabbitMQ 源码剖析:消息存储与协议实现(一)
分布式·rabbitmq
会敲键盘的猕猴桃很大胆5 小时前
Redis实战-基于redis和lua脚本实现分布式锁以及Redission源码解析【万字长文】
java·redis·分布式·spring·lua
shangjg36 小时前
Kafka ACK机制详解:数据可靠性与性能的权衡之道
java·数据库·分布式·后端·kafka
怡人蝶梦10 小时前
Spring Boot启动慢?Redis缓存击穿?Kafka消费堆积?——Java后端常见问题排查实战
java·jvm·redis·kafka·springboot·prometheus·microservices
[email protected]12 小时前
Asp.Net Core SignalR的分布式部署
分布式·后端·asp.net·.netcore
ErizJ1 天前
Golang | 运用分布式搜索引擎实现视频搜索业务
分布式·搜索引擎·golang·全栈·grpc
wanhengidc1 天前
影响服务器稳定性的因素都有什么?
运维·服务器·分布式
MyikJ1 天前
Java互联网大厂面试:从Spring Boot到Kafka的技术深度探索
java·spring boot·微服务·面试·spark·kafka·spring security