【py脚本+logstash+es实现自动化检测工具】

概述

有时候,我们会遇到需要查看服务器的网络连接或者内存或者其他指标是否有超时,但是每次需要登录到服务器查看会很不方便,所以我们可以设置一个自动脚本化工具自动帮助我们查看,下面我做了一个demo在windows上面。

一、py脚本

py 复制代码
import subprocess
import socket

print("hello world")


def execute_wmic_command():
    command = "wmic MemoryChip get Capacity,DeviceLocator"
    result = subprocess.run(command, shell=True, capture_output=True, text=True)
    output_lines = result.stdout.strip().split('\n')[1:]  # 去掉标题行
    data_list = [line.strip().split() for line in output_lines if line.strip()]
    return data_list

# 连接到Logstash并发送数据
def send_to_logstash(data):
    host = 'localhost'  # Logstash所在主机地址,如果在本地就是'localhost',按需修改
    port = 5000  # Logstash监听的端口,根据实际配置修改
    try:
        with socket.socket(socket.AF_INET, socket.SOCK_STREAM) as s:
            s.connect((host, port))
            for item in data:
                if len(item) == 2:
                    capacity = item[0]
                    device_locator = item[1]
                    message = f'{{"capacity": "{capacity}", "deviceLocator": "{device_locator}"}}\n'
                    s.send(message.encode('utf-8'))
    except socket.error as e:
        print(f"Socket error: {e}")
    except Exception as ex:
        print(f"Other error: {ex}")


if __name__ == "__main__":
    wmic_data = execute_wmic_command()
    send_to_logstash(wmic_data)
    print(wmic_data)

py的版本最好在3.9.0以上。

执行python脚本的命令

py 复制代码
python   xxx.py

python3  xxx.py 

(2)logstash

在logstash中的config创建一个conf文件并写上自己的配置

input {
  tcp {
    port => 5000  # 对应Python脚本中连接的端口
    codec => json_lines  # 因为Python脚本发送的是JSON格式每行一条记录的数据,所以用json_lines编解码器解析
  }
}

output {
  elasticsearch {
    hosts => ["localhost:9200"]
    index => "memory_chip_info"
  }
}

logstash启动

cd D:\software\logstash-7.6.2\bin

logstash -f D:\software\logstash-7.6.2\config\myconfig.conf

(3)es

es启动直接双击

D:\es\elasticsearch-7.6.2-windows-x86_64\elasticsearch-7.6.2\bin 的bat文件即可。

当然如果想连接到springboot或者其他工具都是可以的。

相关推荐
Ray.19983 分钟前
Flink 的核心特点和概念
大数据·数据仓库·数据分析·flink
极客先躯13 分钟前
如何提升flink的处理速度?
大数据·flink·提高处理速度
BestandW1shEs16 分钟前
快速入门Flink
java·大数据·flink
速融云2 小时前
汽车制造行业案例 | 发动机在制造品管理全解析(附解决方案模板)
大数据·人工智能·自动化·汽车·制造
金融OG3 小时前
99.11 金融难点通俗解释:净资产收益率(ROE)VS投资资本回报率(ROIC)VS总资产收益率(ROA)
大数据·python·算法·机器学习·金融
Linux运维老纪3 小时前
分布式存储的技术选型之HDFS、Ceph、MinIO对比
大数据·分布式·ceph·hdfs·云原生·云计算·运维开发
DavidSoCool4 小时前
es 3期 第25节-运用Rollup减少数据存储
大数据·elasticsearch·搜索引擎
Elastic 中国社区官方博客4 小时前
使用 Elasticsearch 导航检索增强生成图表
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索
Ray.19984 小时前
Flink在流处理中,为什么还会有窗口的概念呢
大数据·flink
抛砖者4 小时前
3.Flink中重要API的使用
大数据·flink