老版_zabbix安装与grafana可视化的安装(zabbix插件4.1.4)

grafana()的安装

查询、可视化和理解数据,并获取数据警报,无论数据存储在何处。在 Grafana,您可以通过美观、灵活的数据面板创建、探索和共享所有数据。

1. 网络下载安装

shell 复制代码
[itwise@node2 ]$ cd /opt/software/ #进入下载目录
#下载wegt安装命令
[itwise@node2 software]$ sudo yum -y install wget
# 下载安装包
[itwise@node2 software]$ wget https://dl.grafana.com/oss/release/grafana-7.4.3-1.x86_64.rpm

2.使用 rpm 安装 Grafana

shell 复制代码
ps:需要依赖包
[itwise@node2 software]$ sudo rpm -ivh grafana-7.4.3-1.x86_64.rpm
警告:grafana-7.4.3-1.x86_64.rpm: 头V4 RSA/SHA256 Signature, 密钥 ID 24098cb6: NOKEY
错误:依赖检测失败:
        fontconfig 被 grafana-7.4.3-1.x86_64 需要
        urw-fonts 被 grafana-7.4.3-1.x86_64 需要
        
 #安装插件
[itwise@node2 software]$ sudo yum -y install fontconfig
[itwise@node2 software]$ sudo yum -y install urw-fonts
#安装
[itwise@node2 software]$  sudo rpm -ivh grafana-7.4.3-1.x86_64.rpm

3.启动 Grafana

shell 复制代码
[itwise@node2 software]$ sudo systemctl start grafana-server

4.访问 Grafana 页面

访问地址为:http://node2:3000/

首次登录用户名和密码均为 admin

5.集成Zabbix

5.1配置数据源使用 Grafana 与其他系统集成时,需要配置对应的 DataSource

下拉底部

转跳后界面

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传


shell 复制代码
wget https://github.com/alexanderzobnin/grafana-zabbix/releases/download/v4.1.4/alexanderzobnin-zabbix-app-4.1.4.zip

[itwise@node2 software]$ sudo yum -y install unzip
unzip alexanderzobnin-zabbix-app-4.1.4.zip -d /var/lib/grafana/plugins/

[itwise@node2 software]$  sudo systemctl restart grafana-server

grafana无法正常下载zabbix时直接采取去官网下载的方法,把插件的压缩包下载下来然后解压到grafana这样就可以再grafana中找到zabbix插件,注意版本的匹配

3)启用插件

(1)点击设置/插件

(2)搜索 zabbix,并点击搜索结果

(3)启用 Zabbix 插件

7.配置 zabbix 数据源

1)新增数据源

2)搜索 zabbix,并点击搜索结果

3)配置数据源


4.3.2 集成案例

1.为方便展示效果,在 Zabbix 中为 node2 主机应用一个 Zabbix 内置的 Linux 系统监控模板。

1)找到 node2 主机

点击模板,搜索 linux,并选择 Template OS Linux by Zabbix agent

2.集成 Grafana,展示模板中的系统监控项

1)点击 Dashboards,找到前边创建的 Test 看板

2)新建 panel(如上)

Dashboards,找到前边创建的 Test 看板

2)新建 pan

相关推荐
武子康6 小时前
大数据-243 离线数仓 - 实战电商核心交易增量导入(DataX - HDFS - Hive 分区
大数据·后端·apache hive
JackyRoad1 天前
Prometheus-Grafana-vLLM监控实战指南
性能优化·grafana·监控
代码匠心2 天前
从零开始学Flink:Flink SQL四大Join解析
大数据·flink·flink sql·大数据处理
武子康3 天前
大数据-242 离线数仓 - DataX 实战:MySQL 全量/增量导入 HDFS + Hive 分区(离线数仓 ODS
大数据·后端·apache hive
SelectDB4 天前
易车 × Apache Doris:构建湖仓一体新架构,加速 AI 业务融合实践
大数据·agent·mcp
武子康4 天前
大数据-241 离线数仓 - 实战:电商核心交易数据模型与 MySQL 源表设计(订单/商品/品类/店铺/支付)
大数据·后端·mysql
IvanCodes4 天前
一、消息队列理论基础与Kafka架构价值解析
大数据·后端·kafka
武子康5 天前
大数据-240 离线数仓 - 广告业务 Hive ADS 实战:DataX 将 HDFS 分区表导出到 MySQL
大数据·后端·apache hive
字节跳动数据平台6 天前
5000 字技术向拆解 | 火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
武子康6 天前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive