【hadoop】Kafka 安装部署

一、Kafka安装与配置

步骤:

1、使用XFTP将Kafka安装包kafka_2.12-2.8.1.tgz发送到master机器的主目录。

2、解压安装包:

复制代码
tar -zxvf ~/kafka_2.12-2.8.1.tgz

3、修改文件夹的名字,将其改为kafka,或者创建软连接也可:

复制代码
mv ~/kafka_2.12-2.8.1 ~/kafka

4、修改配置文件,Kafka包含生产者、消费者、ZooKeeper、Kafka集群节点等四个角色,因此需要修改对应的4个配置文件即可。Kafka的配置文件夹在解压文件夹里面的config文件夹内,先执行以下命令进入到对应的目录:

复制代码
cd ~/kafka/config

(1)修改zookeeper.properties配置文件:

复制代码
# 指定ZooKeeper的数据目录
dataDir=/home/hadoop/zkdata
# 指定ZooKeeper的端口(这个应该不用改)
clientPort=2181

(2)修改consumer.properties配置文件:

复制代码
# 配置Kafka集群地址
bootstrap.servers=master:9092,slave1:9092,slave2:9092

(3)修改producer.properties配置文件:

复制代码
# 配置Kafka集群地址
bootstrap.servers=master:9092,slave1:9092,slave2:9092

(4)修改server.properties配置文件(找到对应的参数修改):

复制代码
# 指定ZooKeeper集群
zookeeper.connect=master:2181,slave1:2181,slave2:2181

上述内容修改完毕后保存。

5、将上面配置修改好后的Kafka安装文件夹使用scp命令分发给slave1、slave2两个节点:

复制代码
scp -r ~/kafka hadoop@slave1:~
scp -r ~/kafka hadoop@slave2:~

6、分发完成以后,在++++每个节点++++上修改server编号:

复制代码
cd ~/kafka/config
vim server.properties

找到broker.id项,master、slave1、slave2三台机器分别标识为1、2、3:

broker.id=1

broker.id=2

broker.id=3

7、配置环境变量,三台机器都要配置:

复制代码
vim ~/.bashrc

在文件末尾添加以下内容:

复制代码
export KAFKA_HOME=/home/hadoop/kafka
export PATH=$KAFKA_HOME/bin:$PATH

保存文件,然后刷新环境变量或重新启动命令行终端:

复制代码
source ~/.bashrc

二、集群启动测试

Kafka作为一个分布式应用程序,它依赖ZooKeeper提供协调服务,因此要启动Kafka,必须先启动ZooKeeper集群,再启动Kafka集群。

步骤:

1、启动好ZooKeeper以后,在三台机器上执行以下命令启动Kafka:

复制代码
kafka-server-start.sh -daemon ~/kafka/config/server.properties

用jps命令在三台机器上都能看到Kafka进程的话,说明Kafka集群服务启动成功。


三、集群功能测试

集群启动成功后,还需测试其功能是否能正确使用,Kafka自带很多种Shell脚本供用户使用,包括生产消息、消费消息、Topic管理等,下面利用Shell脚本来测试Kafka集群的功能。

步骤:

1、创建Topic:

复制代码
kafka-topics.sh --zookeeper localhost:2181 --create --topic test --replication-factor 3 --partitions 3

2、查看Topic列表:

复制代码
kafka-topics.sh --zookeeper localhost:2181 --list

能够看到第1步创建的test则创建Topic成功。

3、启动消费者:

复制代码
kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test

这样就打开了一个终端消费者,消费test Topic中的消息,但目前该Topic中还没有消息,因此这个进程会没有任何反应,这是正常的。

4、另外打开一个终端,启动生产者向test Topic发送消息:

复制代码
kafka-console-producer.sh --broker-list localhost:9092 --topic test

在这个生产者终端上输入消息,然后按回车发送,发送完之后,如果刚才那个消费者终端上,能够查看到消费了对应的消息的话,说明Kafka集群可以正常对消息进行生产和消费了。

生产者slave1发送消息:

消费者master接受到消息:

相关推荐
未来之窗软件服务1 小时前
浏览器开发CEFSharp+X86 (十六)网页读取电子秤数据——仙盟创梦IDE
大数据·智能硬件·浏览器开发·仙盟创梦ide·东方仙盟·东方仙盟网页调用sdk
阿豪33 小时前
2025 年职场转行突围:除实习外,这些硬核证书让你的简历脱颖而出(纯经验分享)
大数据·人工智能·经验分享·科技·信息可视化·产品经理
张驰课堂4 小时前
老树发新芽:六西格玛培训为石油机械制造注入持久活力
大数据·人工智能·制造
卡卡_R-Python4 小时前
大数据探索性分析——抽样技术应用
大数据·r
伍哥的传说4 小时前
Lodash-es 完整开发指南:ES模块化JavaScript工具库实战教程
大数据·javascript·elasticsearch·lodash-es·javascript工具库·es模块·按需导入
请提交用户昵称5 小时前
大数据各组件flume,datax,presto,DolphinScheduler,findBI在大数据数仓架构中的作用和功能。
大数据·flume·datax·dolphin·presto·findbi·大数据组件
IT果果日记5 小时前
详解DataX开发达梦数据库插件
大数据·数据库·后端
用户Taobaoapi20146 小时前
微店API秘籍!轻松获取商品详情数据
大数据·数据挖掘·数据分析
chimchim666 小时前
StarRocks导入数据-使用 Broker Load 进行异步导入
大数据·sql
iGarment7 小时前
服装采购跟单系统的高效管理实践
大数据·经验分享·云计算