5分钟部署Prometheus+Grafana批量监控Linux服务器

给你送挂来了,宝~~

详细讲解如何在 Linux 服务器上使用 Docker 容器快速部署 Prometheus 和 Grafana 监控系统,同时通过 node_exporter 采集全面的系统性能数据。整个流程涵盖了从环境配置到搭建一个全面监控平台的每个步骤

1,一键安装Node Exporter

Node Exporter 是 Prometheus 生态系统中的一个关键组件,它专门用于收集和导出 Linux 系统的硬件和操作系统指标,如 CPU 使用率、内存利用率、磁盘 IO、网络统计等。这些数据可以帮助你深入了解服务器的性能表现,从而提高系统的监控和管理效率。

该服务所有需要监控的服务器安装,属于数据采集Agent。

下面是一键安装的脚本,脚本设置了国内加速

#!/bin/bash

定义变量

URL="https://mirror.ghproxy.com/https://github.com/prometheus/node_exporter/releases/download/v1.8.2/node_exporter-1.8.2.linux-amd64.tar.gz"

TAR_FILE="node_exporter-1.8.2.linux-amd64.tar.gz"

DIR_NAME="node_exporter-1.8.2.linux-amd64"

LISTEN_PORT="9100"

下载文件

echo "Downloading $TAR_FILE..."

wget -c URL -O TAR_FILE

if [ $? -ne 0 ]; then

echo "Error: Failed to download $TAR_FILE."

exit 1

fi

解压文件

echo "Extracting $TAR_FILE..."

tar -zxvf $TAR_FILE

if [ $? -ne 0 ]; then

echo "Error: Failed to extract $TAR_FILE."

exit 1

fi

进入解压后的目录

echo "Changing directory to $DIR_NAME..."

cd $DIR_NAME

if [ $? -ne 0 ]; then

echo "Error: Failed to change directory to $DIR_NAME."

exit 1

fi

后台运行 node_exporter

echo "Starting node_exporter on port $LISTEN_PORT..."

nohup ./node_exporter --web.listen-address=":$LISTEN_PORT" > node_exporter.stdout 2>&1 &

if [ $? -ne 0 ]; then

echo "Error: Failed to start node_exporter."

exit 1

fi

echo "node_exporter started successfully and is listening on port $LISTEN_PORT."

2,安装prometheus

创建数据存储目录

mkdir /data/prometheus_data && chmod 777 /data/prometheus_data

创建配置文件

将需要监控的节点和添加进配置文件

复制代码
- job_name: "node_exporter"
    static_configs:
      - targets:
        - "192.168.1.12:9100"
        - "192.168.1.13:9100"
        - "192.168.1.14:9100"
        - "192.168.1.15:9100"
        - "192.168.1.3:9100"
        - "192.168.1.4:9100"
        - "192.168.1.5:9100"
        - "192.168.1.6:9100"
        - "192.168.1.7:9100"

完整的配置文件内容为:

my global config

global:

scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.

evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.

scrape_timeout is set to the global default (10s).

Alertmanager configuration

alerting:

alertmanagers:

  • static_configs:

  • targets:

- alertmanager:9093

Load rules once and periodically evaluate them according to the global "evaluation_interval".

rule_files:

- "first_rules.yml"

- "second_rules.yml"

A scrape configuration containing exactly one endpoint to scrape:

Here it"s Prometheus itself.

scrape_configs:

The job name is added as a label `job=<job_name>` to any timeseries scraped from this config.

  • job_name: "prometheus"

static_configs:

  • targets: ["localhost:9090"]

  • job_name: "node_exporter"

static_configs:

  • targets:

  • "192.168.1.12:9100"

  • "192.168.1.13:9100"

  • "192.168.1.14:9100"

  • "192.168.1.15:9100"

  • "192.168.1.3:9100"

  • "192.168.1.4:9100"

  • "192.168.1.5:9100"

  • "192.168.1.6:9100"

  • "192.168.1.7:9100"

tips:这里格式一定要对齐,否则可能会启动失败

设置配置文件权限

chmod 777 /etc/prometheus.yml

下载运行Prometheus

下载运行服务:

docker run -d \

--name=prometheus \

-p 9090:9090 \

-v /etc/prometheus.yml:/etc/prometheus/prometheus.yml \

-v /data/prometheus_data:/prometheus \

--restart always \

prom/prometheus

如果拉取不了可以用下面这个:

docker run -d \

--name=prometheus \

-p 9090:9090 \

-v /etc/prometheus.yml:/etc/prometheus/prometheus.yml \

-v /data/prometheus_data:/prometheus \

--restart always \

registry.cn-hangzhou.aliyuncs.com/jast-docker/prometheus:latest

访问:http://localhost:9090 验证是否启动生效

3,安装Grafana

创建数据目录

mkdir -p grafana/data

下载运行Grafana

docker run -d -p 3000:3000 --name=grafana \

--user "$(id -u)" \

--volume "$PWD/grafana/data:/var/lib/grafana" \

grafana/grafana

上面的如果用不了,用下面的国内镜像

docker run -d -p 3000:3000 --name=grafana \

--user "$(id -u)" \

--restart always \

--volume "$PWD/grafana/data:/var/lib/grafana" \

registry.cn-hangzhou.aliyuncs.com/jast-docker/grafana:latest

运行完成访问: http://localhost:3000

配置Grafana监控Linux服务器

登录

默认账号密码admin/admin

首次登录后设置密码

添加数据源

选择prometheus

填写prometheus地址

最下方点击保存

导入模板

导入8189模板,官方提供的监控模板

输入名称和数据源导入

监控效果

到此监控已经配置完成,你也可以配置预警值,进行一些告警操作,第一时间发现问题。

稳啦稳啦!!!全都稳啦!!!

相关推荐
龙码精神4 天前
前端嵌入Grafana 报表的自定义方案:隐藏导航栏保留筛选工具
grafana
Cherry的跨界思维5 天前
【AI测试全栈:质量】47、Vue+Prometheus+Grafana实战:打造全方位AI监控面板开发指南
vue.js·人工智能·ci/cd·grafana·prometheus·ai测试·ai全栈
AC赳赳老秦5 天前
云原生AI故障排查新趋势:利用DeepSeek实现高效定位部署报错与性能瓶颈
ide·人工智能·python·云原生·prometheus·ai-native·deepseek
予枫的编程笔记5 天前
【Kafka高级篇】Kafka监控不踩坑:JMX指标暴露+Prometheus+Grafana可视化全流程
kafka·grafana·prometheus·可观测性·jmx·kafka集群调优·中间件监控
AC赳赳老秦6 天前
预见2026:DeepSeek与云平台联动的自动化流程——云原生AI工具演进的核心引擎
人工智能·安全·云原生·架构·自动化·prometheus·deepseek
认真的薛薛6 天前
13.k8s中Prometheus监控集群及其服务,endpoint暴露服务,es采集k8s日志
elasticsearch·kubernetes·prometheus
A-刘晨阳6 天前
K8S部署kube-state-metrics + CAdvisor 并使用 Prometheus 监控 Kubernetes 指标
运维·云原生·kubernetes·云计算·prometheus·cadvisor·state-metrics
AC赳赳老秦7 天前
多模态 AI 驱动办公智能化变革:DeepSeek 赋能图文转写与视频摘要的高效实践
java·ide·人工智能·python·prometheus·ai-native·deepseek