一百九十二、Flume——Flume数据流监控工具Ganglia单机版安装

一、目的

在安装好Flume之后,需要用一个工具可以对Flume数据传输进行实时监控,这就是Ganglia

二、Ganglia介绍

Ganglia 由 gmond、gmetad 和 gweb 三部分组成。

(一)第一部分------gmond

gmond(Ganglia Monitoring Daemon)是一种轻量级服务,安装在每台需要收集指标数
据的节点主机上。使用 gmond,你可以很容易收集很多系统指标数据,如 CPU、内存、磁盘、
网络和活跃进程的数据等。

(二)第二部分------gmetad

gmetad(Ganglia Meta Daemon)整合所有信息,并将其以 RRD 格式存储至磁盘的服务。

(三)第三部分------gweb

gweb(Ganglia Web)Ganglia 可视化工具,gweb 是一种利用浏览器显示 gmetad 所存储
数据的 PHP 前端。在 Web 界面中以图表方式展现集群的运行状态下收集的多种不同指标数
据。

三、Ganglia安装步骤

(一)下载epel-release和ganglia

yum -y install epel-release
yum -y install ganglia-gmetad
yum -y install ganglia-web
yum -y install ganglia-gmond

(二)修改配置文件ganglia.conf

**[root@hurys22 ~]# vi /etc/httpd/conf.d/ganglia.conf
<Location /ganglia>**Require ip 192.168.0.22
**# Require ip 10.1.2.3

Require host example.org**

Require all granted
</Location>

(三)修改配置文件gmetad.conf

**[root@hurys22 ~]# vi /etc/ganglia/gmetad.conf
44 data_source "my cluster"**hurys22

(四)修改配置文件gmond.conf

[root@hurys22 ~]# vi /etc/ganglia/gmond.conf
30 name = "my cluster"
31 owner = "unspecified"
32 latlong = "unspecified"
33 url = "unspecified"

50****host = hurys22
51 port = 8649
52 ttl = 1
57
**# mcast_join = 239.2.11.71**
58 port = 8649
59****bind = 0.0.0.0

60 retry_bind = true

(五)修改配置文件config

**[root@hurys22 ~]# vi /etc/selinux/config
7 SELINUX=**disabled

(六)文件赋权

chmod -R 777 /var/lib/ganglia

(七)服务器重启

reboot

(八)启动 ganglia

sudo systemctl start gmond
sudo systemctl start httpd
sudo systemctl start gmetad

(九)打开网页浏览 ganglia 页面

http://hurys22/ganglia

乐于奉献共享,帮助你我他!

相关推荐
说私域2 小时前
信息时代的消费者行为变迁与应对策略:基于链动2+1模式、AI智能名片及S2B2C商城小程序的分析
大数据·人工智能·小程序
上海研博数据3 小时前
使用Flink-JDBC将数据同步到Doris
大数据·flink
十六ᵛᵃᵉ4 小时前
day07_Spark SQL
大数据·sql·spark
W_Meng_H4 小时前
ElasticSearch-Nested 类型与 Object 类型的区别
大数据·elasticsearch·搜索引擎
要养家的程序猿4 小时前
ElasticSearch在Windows环境搭建&测试
大数据·elasticsearch·搜索引擎
拓端研究室4 小时前
【专题】2025年节日营销趋势洞察报告汇总PDF洞察(附原数据表)
大数据
摇光~4 小时前
【数据仓库】— 5分钟浅谈数据仓库(适合新手)从理论到实践
大数据·数据库·数据仓库·spark·etl
yuanbenshidiaos5 小时前
【大数据】机器学习-----最开始的引路
大数据·人工智能·机器学习
weixin_307779137 小时前
PySpark用sort-merge join解决数据倾斜的完整案例
大数据·python·spark
字节跳动数据平台7 小时前
“数据飞轮” 理念焕新,助力 2025 企业数智化发展
大数据