【Hadoop实训】Flume系统负载均衡测试

一、搭建并配置Flume机器

在master上,执行:

复制代码
scp -r /export/servers/flume slave1:/export/servers/

scp -r /export/servers/flume slave2:/export/servers/

scp /etc/profile slave1:/etc/profile

scp /etc/profile slave2:/etc/profile

执行完上述指令后,分别在slave1和slave2上机器人运行"source /etc/profile"指令,立即刷新配置。

二、配置Flume采集方案

  • 在master上配置第一级采集配置,在/export/servers/flume/conf目录下编写采集方案exec-avro.conf。

  • 在slave1和slave2上配置第二级Agent的采集方案,分别在slave1和slave2的/export/servers/flume/conf目录下编写各自的采集方案avro-logger.conf.

三、启动Flume系统

1、在slave1上操作,进入目录:cd /export/servers/flume/ 执行命令:

复制代码
flume-ng agent --conf conf/ --conf-file conf/avro-logger.conf --name a1 -Dflume.root.logger=INFO,console

如果出现这种错误 把 --name a1 提前到第一个 conf/ 后面。

2、在slave2上操作,进入目录:cd /export/servers/flume/ 执行命令:

复制代码
flume-ng agent --conf conf/ --conf-file conf/avro-logger.conf --name a1 -Dflume.root.logger=INFO,console

3、 在master上操作,进入目录:cd /export/servers/flume/ 执行命令:

复制代码
flume-ng agent --conf conf/ --conf-file conf/exec-avro.conf --name a1 -Dflume.root.logger=INFO,console

此时:

slave1 终端上信息显示:

slave终端信息显示:

四、Flume系统负载均衡测试

重新打开master一个终端,创建/root/logs目录

复制代码
mkdir /root/logs

输入shell 脚本:

复制代码
while true;do echo "access access ..." >>/root/logs/123.log;sleep 1;done

结果

执行完上述指令后,查看slave1和slave2中启动Flume的终端窗口,可以发现两台机器上的Flume系统几乎是轮流采集并打印出收集得到的数据信息。

相关推荐
NEXU53 小时前
Linux:套接字
linux·服务器·网络
FreeBuf_5 小时前
CERT/CC警告:新型HTTP/2漏洞“MadeYouReset“恐致全球服务器遭DDoS攻击瘫痪
服务器·http·ddos
麦兜*7 小时前
【swift】SwiftUI动画卡顿全解:GeometryReader滥用检测与Canvas绘制替代方案
服务器·ios·swiftui·android studio·objective-c·ai编程·swift
DavieLau10 小时前
C#项目WCF接口暴露调用及SOAP接口请求测试(Python版)
xml·服务器·开发语言·python·c#
星哥说事11 小时前
如何将堡塔云WAF迁移到新的服务器
服务器·git·github
计算机源码社11 小时前
分享一个基于Hadoop的二手房销售签约数据分析与可视化系统,基于Python可视化的二手房销售数据分析平台
大数据·hadoop·python·数据分析·毕业设计项目·毕业设计源码·计算机毕设选题
₯㎕星空&繁华12 小时前
Linux-地址空间
linux·运维·服务器·经验分享·笔记
云心雨禅12 小时前
网站突然崩了,此站点遇到了致命错误!
服务器·mysql
计算机毕设残哥13 小时前
完整技术栈分享:基于Hadoop+Spark的在线教育投融资大数据可视化分析系统
大数据·hadoop·python·信息可视化·spark·计算机毕设·计算机毕业设计
Mr_Xuhhh13 小时前
传输层协议TCP(3)
运维·服务器·网络·网络协议·tcp/ip·http·https