一百九十二、Flume——Flume数据流监控工具Ganglia单机版安装

一、目的

在安装好Flume之后,需要用一个工具可以对Flume数据传输进行实时监控,这就是Ganglia

二、Ganglia介绍

Ganglia 由 gmond、gmetad 和 gweb 三部分组成。

(一)第一部分------gmond

gmond(Ganglia Monitoring Daemon)是一种轻量级服务,安装在每台需要收集指标数
据的节点主机上。使用 gmond,你可以很容易收集很多系统指标数据,如 CPU、内存、磁盘、
网络和活跃进程的数据等。

(二)第二部分------gmetad

gmetad(Ganglia Meta Daemon)整合所有信息,并将其以 RRD 格式存储至磁盘的服务。

(三)第三部分------gweb

gweb(Ganglia Web)Ganglia 可视化工具,gweb 是一种利用浏览器显示 gmetad 所存储
数据的 PHP 前端。在 Web 界面中以图表方式展现集群的运行状态下收集的多种不同指标数
据。

三、Ganglia安装步骤

(一)下载epel-release和ganglia

yum -y install epel-release
yum -y install ganglia-gmetad
yum -y install ganglia-web
yum -y install ganglia-gmond

(二)修改配置文件ganglia.conf

**[root@hurys22 ~]# vi /etc/httpd/conf.d/ganglia.conf
<Location /ganglia>**Require ip 192.168.0.22
**# Require ip 10.1.2.3

Require host example.org**

Require all granted
</Location>

(三)修改配置文件gmetad.conf

**[root@hurys22 ~]# vi /etc/ganglia/gmetad.conf
44 data_source "my cluster"**hurys22

(四)修改配置文件gmond.conf

[root@hurys22 ~]# vi /etc/ganglia/gmond.conf
30 name = "my cluster"
31 owner = "unspecified"
32 latlong = "unspecified"
33 url = "unspecified"

50****host = hurys22
51 port = 8649
52 ttl = 1
57
**# mcast_join = 239.2.11.71**
58 port = 8649
59****bind = 0.0.0.0

60 retry_bind = true

(五)修改配置文件config

**[root@hurys22 ~]# vi /etc/selinux/config
7 SELINUX=**disabled

(六)文件赋权

chmod -R 777 /var/lib/ganglia

(七)服务器重启

reboot

(八)启动 ganglia

sudo systemctl start gmond
sudo systemctl start httpd
sudo systemctl start gmetad

(九)打开网页浏览 ganglia 页面

http://hurys22/ganglia

乐于奉献共享,帮助你我他!

相关推荐
Acrelhuang23 分钟前
安科瑞5G基站直流叠光监控系统-安科瑞黄安南
大数据·数据库·数据仓库·物联网
皓74132 分钟前
服饰电商行业知识管理的创新实践与知识中台的重要性
大数据·人工智能·科技·数据分析·零售
Mephisto.java34 分钟前
【大数据学习 | kafka高级部分】kafka的kraft集群
大数据·sql·oracle·kafka·json·hbase
Mephisto.java36 分钟前
【大数据学习 | kafka高级部分】kafka的文件存储原理
大数据·sql·oracle·kafka·json
ycsdn101 小时前
Caused by: org.apache.flink.api.common.io.ParseException: Row too short:
大数据·flink
DolphinScheduler社区3 小时前
Apache DolphinScheduler + OceanBase,搭建分布式大数据调度平台的实践
大数据
时差9534 小时前
MapReduce 的 Shuffle 过程
大数据·mapreduce
kakwooi5 小时前
Hadoop---MapReduce(3)
大数据·hadoop·mapreduce
数新网络5 小时前
《深入浅出Apache Spark》系列②:Spark SQL原理精髓全解析
大数据·sql·spark
昨天今天明天好多天10 小时前
【数据仓库】
大数据