一百九十二、Flume——Flume数据流监控工具Ganglia单机版安装

一、目的

在安装好Flume之后,需要用一个工具可以对Flume数据传输进行实时监控,这就是Ganglia

二、Ganglia介绍

Ganglia 由 gmond、gmetad 和 gweb 三部分组成。

(一)第一部分------gmond

gmond(Ganglia Monitoring Daemon)是一种轻量级服务,安装在每台需要收集指标数
据的节点主机上。使用 gmond,你可以很容易收集很多系统指标数据,如 CPU、内存、磁盘、
网络和活跃进程的数据等。

(二)第二部分------gmetad

gmetad(Ganglia Meta Daemon)整合所有信息,并将其以 RRD 格式存储至磁盘的服务。

(三)第三部分------gweb

gweb(Ganglia Web)Ganglia 可视化工具,gweb 是一种利用浏览器显示 gmetad 所存储
数据的 PHP 前端。在 Web 界面中以图表方式展现集群的运行状态下收集的多种不同指标数
据。

三、Ganglia安装步骤

(一)下载epel-release和ganglia

yum -y install epel-release
yum -y install ganglia-gmetad
yum -y install ganglia-web
yum -y install ganglia-gmond

(二)修改配置文件ganglia.conf

**[root@hurys22 ~]# vi /etc/httpd/conf.d/ganglia.conf
<Location /ganglia>**Require ip 192.168.0.22
**# Require ip 10.1.2.3

Require host example.org**

Require all granted
</Location>

(三)修改配置文件gmetad.conf

**[root@hurys22 ~]# vi /etc/ganglia/gmetad.conf
44 data_source "my cluster"**hurys22

(四)修改配置文件gmond.conf

[root@hurys22 ~]# vi /etc/ganglia/gmond.conf
30 name = "my cluster"
31 owner = "unspecified"
32 latlong = "unspecified"
33 url = "unspecified"

50****host = hurys22
51 port = 8649
52 ttl = 1
57
**# mcast_join = 239.2.11.71**
58 port = 8649
59****bind = 0.0.0.0

60 retry_bind = true

(五)修改配置文件config

**[root@hurys22 ~]# vi /etc/selinux/config
7 SELINUX=**disabled

(六)文件赋权

chmod -R 777 /var/lib/ganglia

(七)服务器重启

reboot

(八)启动 ganglia

sudo systemctl start gmond
sudo systemctl start httpd
sudo systemctl start gmetad

(九)打开网页浏览 ganglia 页面

http://hurys22/ganglia

乐于奉献共享,帮助你我他!

相关推荐
mazhafener1236 小时前
智慧照明:集中控制器、单双灯控制器与智慧灯杆网关的高效协同
大数据
打码人的日常分享6 小时前
物联网智慧医院建设方案(PPT)
大数据·物联网·架构·流程图·智慧城市·制造
Lansonli8 小时前
大数据Spark(六十一):Spark基于Standalone提交任务流程
大数据·分布式·spark
Rverdoser9 小时前
电脑硬盘分几个区好
大数据
傻啦嘿哟9 小时前
Python 数据分析与可视化实战:从数据清洗到图表呈现
大数据·数据库·人工智能
Theodore_10229 小时前
大数据(2) 大数据处理架构Hadoop
大数据·服务器·hadoop·分布式·ubuntu·架构
簌簌曌10 小时前
CentOS7 + JDK8 虚拟机安装与 Hadoop + Spark 集群搭建实践
大数据·hadoop·spark
Theodore_102212 小时前
大数据(1) 大数据概述
大数据·hadoop·数据分析·spark·hbase
Aurora_NeAr12 小时前
Apache Spark详解
大数据·后端·spark
IvanCodes14 小时前
六、Sqoop 导出
大数据·hadoop·sqoop