【hadoop】Kafka 安装部署

一、Kafka安装与配置

步骤:

1、使用XFTP将Kafka安装包kafka_2.12-2.8.1.tgz发送到master机器的主目录。

2、解压安装包:

复制代码
tar -zxvf ~/kafka_2.12-2.8.1.tgz

3、修改文件夹的名字,将其改为kafka,或者创建软连接也可:

复制代码
mv ~/kafka_2.12-2.8.1 ~/kafka

4、修改配置文件,Kafka包含生产者、消费者、ZooKeeper、Kafka集群节点等四个角色,因此需要修改对应的4个配置文件即可。Kafka的配置文件夹在解压文件夹里面的config文件夹内,先执行以下命令进入到对应的目录:

复制代码
cd ~/kafka/config

(1)修改zookeeper.properties配置文件:

复制代码
# 指定ZooKeeper的数据目录
dataDir=/home/hadoop/zkdata
# 指定ZooKeeper的端口(这个应该不用改)
clientPort=2181

(2)修改consumer.properties配置文件:

复制代码
# 配置Kafka集群地址
bootstrap.servers=master:9092,slave1:9092,slave2:9092

(3)修改producer.properties配置文件:

复制代码
# 配置Kafka集群地址
bootstrap.servers=master:9092,slave1:9092,slave2:9092

(4)修改server.properties配置文件(找到对应的参数修改):

复制代码
# 指定ZooKeeper集群
zookeeper.connect=master:2181,slave1:2181,slave2:2181

上述内容修改完毕后保存。

5、将上面配置修改好后的Kafka安装文件夹使用scp命令分发给slave1、slave2两个节点:

复制代码
scp -r ~/kafka hadoop@slave1:~
scp -r ~/kafka hadoop@slave2:~

6、分发完成以后,在++++每个节点++++上修改server编号:

复制代码
cd ~/kafka/config
vim server.properties

找到broker.id项,master、slave1、slave2三台机器分别标识为1、2、3:

broker.id=1

broker.id=2

broker.id=3

7、配置环境变量,三台机器都要配置:

复制代码
vim ~/.bashrc

在文件末尾添加以下内容:

复制代码
export KAFKA_HOME=/home/hadoop/kafka
export PATH=$KAFKA_HOME/bin:$PATH

保存文件,然后刷新环境变量或重新启动命令行终端:

复制代码
source ~/.bashrc

二、集群启动测试

Kafka作为一个分布式应用程序,它依赖ZooKeeper提供协调服务,因此要启动Kafka,必须先启动ZooKeeper集群,再启动Kafka集群。

步骤:

1、启动好ZooKeeper以后,在三台机器上执行以下命令启动Kafka:

复制代码
kafka-server-start.sh -daemon ~/kafka/config/server.properties

用jps命令在三台机器上都能看到Kafka进程的话,说明Kafka集群服务启动成功。


三、集群功能测试

集群启动成功后,还需测试其功能是否能正确使用,Kafka自带很多种Shell脚本供用户使用,包括生产消息、消费消息、Topic管理等,下面利用Shell脚本来测试Kafka集群的功能。

步骤:

1、创建Topic:

复制代码
kafka-topics.sh --zookeeper localhost:2181 --create --topic test --replication-factor 3 --partitions 3

2、查看Topic列表:

复制代码
kafka-topics.sh --zookeeper localhost:2181 --list

能够看到第1步创建的test则创建Topic成功。

3、启动消费者:

复制代码
kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test

这样就打开了一个终端消费者,消费test Topic中的消息,但目前该Topic中还没有消息,因此这个进程会没有任何反应,这是正常的。

4、另外打开一个终端,启动生产者向test Topic发送消息:

复制代码
kafka-console-producer.sh --broker-list localhost:9092 --topic test

在这个生产者终端上输入消息,然后按回车发送,发送完之后,如果刚才那个消费者终端上,能够查看到消费了对应的消息的话,说明Kafka集群可以正常对消息进行生产和消费了。

生产者slave1发送消息:

消费者master接受到消息:

相关推荐
面向Google编程5 小时前
从零学习Kafka:数据存储
后端·kafka
Jackeyzhe5 小时前
从零学习Kafka:数据存储
kafka
Coder_Boy_7 小时前
技术让开发更轻松的底层矛盾
java·大数据·数据库·人工智能·深度学习
2501_944934737 小时前
高职大数据技术专业,CDA和Python认证优先考哪个?
大数据·开发语言·python
九河云8 小时前
5秒开服,你的应用部署还卡在“加载中”吗?
大数据·人工智能·安全·机器学习·华为云
Gain_chance8 小时前
36-学习笔记尚硅谷数仓搭建-DWS层数据装载脚本
大数据·数据仓库·笔记·学习
每日新鲜事9 小时前
热销复盘:招商林屿缦岛203套售罄背后的客户逻辑分析
大数据·人工智能
AI架构全栈开发实战笔记10 小时前
Eureka 在大数据环境中的性能优化技巧
大数据·ai·eureka·性能优化
AI架构全栈开发实战笔记10 小时前
Eureka 对大数据领域服务依赖关系的梳理
大数据·ai·云原生·eureka
自挂东南枝�10 小时前
政企舆情大数据服务平台的“全域洞察中枢”
大数据