2023_Spark_实验三十:测试Flume到Kafka

实验目的:测试Flume采集数据发送到Kafka

实验方法:通过centos7集群测试,将flume采集的数据放到kafka中

实验步骤:

一、 kafka可视化工具介绍

Kafka Tool是一个用于管理和使用Apache Kafka集群的GUI应用程序。 Kafka Tool提供了一个较为直观的UI可让用户快速查看Kafka集群中的对象以及存储在topic中的消息,提供了一些专门面向开发人员和管理员的功能,主要特性包括:

  • 快速查看所有Kafka集群信息,包括其brokers, topics and consumers

  • 查看分区中的消息内容并支持添加新消息

  • 查看消费者偏移量,支持查看Apache Storm Kafka Spout消费者偏移量

  • 以pretty-printed 格式显示JSON和XML消息

  • 添加和删除topic以及其他管理功能

  • 将单个消息从指定分区保存到本地硬盘驱动器

  • 支持用户编写自己的插件以查看自定义数据格式

  • 支持在Windows,Linux和Mac OS上运行

下载地址

这个软件的安装很简单,傻瓜式安装,直接下一步就可以,下载地址:Offset Explorer

下载并安装你对应的操作系统版本软件

二、启动zookeeper集群

bash 复制代码
zk.sh start  
# https://blog.csdn.net/pblh123/article/details/134730738  参考这个

三、启动kafka集群

bash 复制代码
kf.sh
# https://blog.csdn.net/pblh123/article/details/134730738  参考

通过kafkatools offset exploer 2.3 链接查看kafak

检查windows的hosts文件配置

四、启动flume

bash 复制代码
/opt/module/apache-flume-1.9.0-bin/bin/flume-ng agent -c conf -f /opt/module/apache-flume-1.9.0-bin/conf/kafka.conf -n a2 -Dflume.root.logger=INFO,console

五、启动消费者

bash 复制代码
# 创建kafka主题
/opt/module/kafka_2.12-3.0.0/bin/kafka-topics.sh --create --bootstrap-server hd1:9092 --replication-factor 3 --partitions 1 --topic RealDataTopic


# 启动消费者
/opt/module/kafka_2.12-3.0.0/bin/kafka-console-consumer.sh --bootstrap-server hd1:9092 --topic RealDataTopic --from-beginning

实验结果:flume采集数据到kafka链路跑通

相关推荐
蒙特卡洛的随机游走5 小时前
Spark的persist和cache
大数据·分布式·spark
蒙特卡洛的随机游走5 小时前
Spark 中 distribute by、sort by、cluster by 深度解析
大数据·分布式·spark
梦里不知身是客115 小时前
Spark中的宽窄依赖-宽窄巷子
大数据·分布式·spark
化作星辰5 小时前
java 给鉴权kafka2.7(sasl)发送消息权限异常处理
java·大数据·开发语言·kafka
过往记忆5 小时前
Kafka 作为事件流的商业模式正在消亡
分布式·kafka
闲人编程12 小时前
Python与大数据:使用PySpark处理海量数据
大数据·开发语言·分布式·python·spark·codecapsule·大规模
程序员小羊!12 小时前
电商项目练习实操(二)
大数据·数据分析·etl·flume
一瓢一瓢的饮 alanchan12 小时前
Flink原理与实战(java版)#第2章 Flink的入门(第二节Flink简介)
java·大数据·flink·kafka·实时计算·离线计算·流批一体化计算
原来是好奇心1 天前
消息队列终极选型:RabbitMQ、RocketMQ、Kafka与ActiveMQ深度对比
分布式·kafka·rabbitmq·rocketmq·activemq·mq
青云交1 天前
Java 大视界 -- 基于 Java 的大数据实时数据处理在工业互联网设备协同制造中的应用与挑战
flink·spark·工业互联网·预测性维护·实时数据处理·java 大数据·设备协同制造