【Hadoop实训】Flume系统负载均衡测试

一、搭建并配置Flume机器

在master上,执行:

复制代码
scp -r /export/servers/flume slave1:/export/servers/

scp -r /export/servers/flume slave2:/export/servers/

scp /etc/profile slave1:/etc/profile

scp /etc/profile slave2:/etc/profile

执行完上述指令后,分别在slave1和slave2上机器人运行"source /etc/profile"指令,立即刷新配置。

二、配置Flume采集方案

  • 在master上配置第一级采集配置,在/export/servers/flume/conf目录下编写采集方案exec-avro.conf。

  • 在slave1和slave2上配置第二级Agent的采集方案,分别在slave1和slave2的/export/servers/flume/conf目录下编写各自的采集方案avro-logger.conf.

三、启动Flume系统

1、在slave1上操作,进入目录:cd /export/servers/flume/ 执行命令:

复制代码
flume-ng agent --conf conf/ --conf-file conf/avro-logger.conf --name a1 -Dflume.root.logger=INFO,console

如果出现这种错误 把 --name a1 提前到第一个 conf/ 后面。

2、在slave2上操作,进入目录:cd /export/servers/flume/ 执行命令:

复制代码
flume-ng agent --conf conf/ --conf-file conf/avro-logger.conf --name a1 -Dflume.root.logger=INFO,console

3、 在master上操作,进入目录:cd /export/servers/flume/ 执行命令:

复制代码
flume-ng agent --conf conf/ --conf-file conf/exec-avro.conf --name a1 -Dflume.root.logger=INFO,console

此时:

slave1 终端上信息显示:

slave终端信息显示:

四、Flume系统负载均衡测试

重新打开master一个终端,创建/root/logs目录

复制代码
mkdir /root/logs

输入shell 脚本:

复制代码
while true;do echo "access access ..." >>/root/logs/123.log;sleep 1;done

结果

执行完上述指令后,查看slave1和slave2中启动Flume的终端窗口,可以发现两台机器上的Flume系统几乎是轮流采集并打印出收集得到的数据信息。

相关推荐
Gofarlic_oms17 小时前
利用API实现ANSYS许可证管理自动化集成
运维·服务器·开发语言·matlab·自动化·负载均衡
倔强的石头1069 小时前
【Linux指南】基础IO系列(八):实战衔接 —— 给微型 Shell 添加完整重定向功能
linux·运维·服务器
冰暮流星10 小时前
javascript事件案例-全选框案例
服务器·前端·javascript
狂奔的sherry13 小时前
一次由 mount 引发的 Linux 文件系统“错觉”
linux·运维·服务器
℡終嚸♂68015 小时前
n8n 未初始化接管到读取 Flag Writeup
服务器·web安全·web·n8n
风翼靓崽16 小时前
linux命令杂记 - 杂乱无章
linux·运维·服务器
solihawk16 小时前
服务器内存被谁“偷”走了?
服务器·数据库
德彪稳坐倒骑驴16 小时前
SQL连续登录问题
服务器·数据库·sql
校羽干16 小时前
ubuntu22.04 安装卸载更新 ollama
运维·服务器
淘矿人17 小时前
2026年4月-DeepSeek V4 vs GPT-5.5深度对比测评:weelinking一键切换实测
服务器·数据库·人工智能·python·gpt·学习·php