基于Hadoop平台的电信客服数据的处理与分析③项目开发:搭建Kafka大数据运算环境---任务12:安装Kafka

任务描述

任务内容为安装和配置Kafka集群。

任务指导

Kafka是大数据生态圈中常用的消息队列框架

具体安装步骤如下:

  1. 解压缩Kafka的压缩包

  2. 配置Kafka的环境变量

  3. 修改Kafka的配置文件,Kafka的配置文件存放在Kafka安装目录下的config中

  4. 验证Kafka

任务实现

1、解压Kafka

在【master1】上解压缩包

[root@master1 ~]# cd /opt/software
[root@master1 software]# tar -xzf kafka_2.12-2.4.1.tgz -C /opt/app/

2、在【master1】编辑系统环境变量/etc/profile

[root@master1 ~]# vi /etc/profile

在文件末尾添加如下配置

export KAFKA_HOME=/opt/app/kafka_2.12-2.4.1
export PATH=$PATH:$KAFKA_HOME/bin

执行【source /etc/profile】重新加载环境变量

3、配置Kafka

为Kafka创建数据目录

[root@master1 ~]# source /etc/profile
[root@master1 ~]# cd $KAFKA_HOME
[root@master1 kafka_2.12-2.4.1]# mkdir kafka-logs

然后打开config目录下的server.properties文件,修改日志目录为刚刚创建的目录:

[root@master1 kafka_2.12-2.4.1]# cd $KAFKA_HOME/config
[root@master1 config]# vi server.properties

修改如下配置的值,其中broker.id的值需要保证在整个集群中是唯一的

broker.id=1
listeners=PLAINTEXT://master1:9092
log.dirs=/opt/app/kafka_2.12-2.4.1/kafka-logs
zookeeper.connect=master1:2181,slave1:2181,slave2:2181

在【master1】启动Kafka的后台守护进程

[root@master1 ~]# kafka-server-start.sh -daemon $KAFKA_HOME/config/server.properties

4、验证Kafka

1)创建topic,创建名为test的topic,分区数1,副本1

[root@master1 ~]# kafka-topics.sh --create --zookeeper master1:2181,slave1:2181,slave2:2181 --replication-factor 1 --partitions 1 --topic test

2)查看topic的状态

[root@master1 ~]# kafka-topics.sh --describe --zookeeper master1:2181,slave1:2181,slave2:2181 --topic test

3)在【master1】开启一个生产者发送消息

[root@master1 ~]# kafka-console-producer.sh --broker-list master1:9092 --topic test

4)在【master1】再打开一个消费者消费消息

[root@master1 ~]# kafka-console-consumer.sh --bootstrap-server master1:9092 --from-beginning --topic test

参数from-beginning表示从第一条消息开始读取

相关推荐
大数据编程之光16 分钟前
Flink Standalone集群模式安装部署全攻略
java·大数据·开发语言·面试·flink
B站计算机毕业设计超人17 分钟前
计算机毕业设计SparkStreaming+Kafka旅游推荐系统 旅游景点客流量预测 旅游可视化 旅游大数据 Hive数据仓库 机器学习 深度学习
大数据·数据仓库·hadoop·python·kafka·课程设计·数据可视化
在下不上天2 小时前
Flume日志采集系统的部署,实现flume负载均衡,flume故障恢复
大数据·开发语言·python
智慧化智能化数字化方案2 小时前
华为IPD流程管理体系L1至L5最佳实践-解读
大数据·华为
PersistJiao4 小时前
在 Spark RDD 中,sortBy 和 top 算子的各自适用场景
大数据·spark·top·sortby
2301_811274314 小时前
大数据基于Spring Boot的化妆品推荐系统的设计与实现
大数据·spring boot·后端
Yz98764 小时前
hive的存储格式
大数据·数据库·数据仓库·hive·hadoop·数据库开发
青云交4 小时前
大数据新视界 -- 大数据大厂之 Hive 数据导入:多源数据集成的策略与实战(上)(3/ 30)
大数据·数据清洗·电商数据·数据整合·hive 数据导入·多源数据·影视娱乐数据
武子康4 小时前
大数据-230 离线数仓 - ODS层的构建 Hive处理 UDF 与 SerDe 处理 与 当前总结
java·大数据·数据仓库·hive·hadoop·sql·hdfs
武子康4 小时前
大数据-231 离线数仓 - DWS 层、ADS 层的创建 Hive 执行脚本
java·大数据·数据仓库·hive·hadoop·mysql