2023_Spark_实验三十:测试Flume到Kafka

实验目的:测试Flume采集数据发送到Kafka

实验方法:通过centos7集群测试,将flume采集的数据放到kafka中

实验步骤:

一、 kafka可视化工具介绍

Kafka Tool是一个用于管理和使用Apache Kafka集群的GUI应用程序。 Kafka Tool提供了一个较为直观的UI可让用户快速查看Kafka集群中的对象以及存储在topic中的消息,提供了一些专门面向开发人员和管理员的功能,主要特性包括:

  • 快速查看所有Kafka集群信息,包括其brokers, topics and consumers

  • 查看分区中的消息内容并支持添加新消息

  • 查看消费者偏移量,支持查看Apache Storm Kafka Spout消费者偏移量

  • 以pretty-printed 格式显示JSON和XML消息

  • 添加和删除topic以及其他管理功能

  • 将单个消息从指定分区保存到本地硬盘驱动器

  • 支持用户编写自己的插件以查看自定义数据格式

  • 支持在Windows,Linux和Mac OS上运行

下载地址

这个软件的安装很简单,傻瓜式安装,直接下一步就可以,下载地址:Offset Explorer

下载并安装你对应的操作系统版本软件

二、启动zookeeper集群

bash 复制代码
zk.sh start  
# https://blog.csdn.net/pblh123/article/details/134730738  参考这个

三、启动kafka集群

bash 复制代码
kf.sh
# https://blog.csdn.net/pblh123/article/details/134730738  参考

通过kafkatools offset exploer 2.3 链接查看kafak

检查windows的hosts文件配置

四、启动flume

bash 复制代码
/opt/module/apache-flume-1.9.0-bin/bin/flume-ng agent -c conf -f /opt/module/apache-flume-1.9.0-bin/conf/kafka.conf -n a2 -Dflume.root.logger=INFO,console

五、启动消费者

bash 复制代码
# 创建kafka主题
/opt/module/kafka_2.12-3.0.0/bin/kafka-topics.sh --create --bootstrap-server hd1:9092 --replication-factor 3 --partitions 1 --topic RealDataTopic


# 启动消费者
/opt/module/kafka_2.12-3.0.0/bin/kafka-console-consumer.sh --bootstrap-server hd1:9092 --topic RealDataTopic --from-beginning

实验结果:flume采集数据到kafka链路跑通

相关推荐
心止水j1 小时前
spark
javascript·数据库·spark
weixin_4569042714 小时前
# Pandas 与 Spark 数据操作完整教程
大数据·spark·pandas
百度Geek说15 小时前
百度APP日志处理框架升级之路
大数据·spark
yumgpkpm17 小时前
CMP (类Cloudera) CDP7.3(400次编译)在华为鲲鹏Aarch64(ARM)信创环境中的性能测试过程及命令
大数据·hive·hadoop·python·elasticsearch·spark·cloudera
想你依然心痛17 小时前
Spark大数据分析与实战笔记(第六章 Kafka分布式发布订阅消息系统-01)
笔记·分布式·spark
故事很腻i17 小时前
安装kafka-2.5.1
分布式·kafka
坐吃山猪18 小时前
Kafka11-知识补充
kafka
Q264336502318 小时前
大数据实战项目-基于K-Means算法与Spark的豆瓣读书数据分析与可视化系统-基于python的豆瓣读书数据分析与可视化大屏
大数据·hadoop·机器学习·数据分析·spark·毕业设计·kmeans
yumgpkpm20 小时前
CMP平台(类Cloudera CDP7.3)在华为鲲鹏的Aarch64信创环境中的性能表现
大数据·flink·kafka·big data·flume·cloudera
大数据CLUB20 小时前
基于spark的抖音短视频数据分析及可视化
大数据·hadoop·分布式·数据分析·spark