ELK对业务日志进行收集

ELK对业务日志进行收集

下载httpd

进到文件设置收集httpd的文件进行 设置

编辑内容 用于收集日志的内容 将日志的内容发送到实例当中


bash 复制代码
input {

    file{
        path => /etc/httpd/logs/access_log
        type => "access"
        start_position => "beginning"
         }

    file{
        path => /etc/httpd/logs/access_log
        type => "error"
        start_position => "beginning"
         }

       }
output {
   if [type] == "access" {
        elasticsearch {
             hosts => ["20.0.0.13:9200","20.0.0.14:9200"]
             index => "apache_access-%{+YYYY.MM.dd}"
             }

            }

    if [type] == "error" {
        elasticsearch {
             hosts => ["20.0.0.13:9200","20.0.0.14:9200"]
             index => "apache_error-%{+YYYY.MM.dd}"
             }

}

启动文件

bash 复制代码
logstash -f http.conf --path.data /opt/test5 &

API接口:

软件内部代码之间通信的接口,代码的连接点

端口是对外提供访问程序的内容接口

页面访问httpd刷新

查看创建索引

filebeat安装 移动

filebeat:

1、可以在本机收集日志

2、也可以远程收集日志

3、轻量级的日志收集系统,可以再非java环境下运行

logstash是在jvm环境中运行,资源消耗很好,启动一个logstash要消耗500M左右的内存

filebeat只消耗十M左右的内存

打开文件 。yml

开启日志收集,以及确定日志文件的路径,指定标签和发送到目标主机的logstash

指定的是es展示的ip+端口 IP不是指定的只要是logstash主机上没有被占用的端口都可以使用,大于1024即可

要注释掉的

文件名是对方的主机地址

这里的端口和上面自己设置的是一样的

这里是指定往哪里发送

bash 复制代码
input {

   beats { port => "5045" }
    }
output {
   if "nginx" in [tags] {
        elasticsearch {
             hosts => ["20.0.0.13:9200","20.0.0.14:9200"]
             index => "%{[fields][service_name]}-%{+YYYY.MM.dd}"
             }
            }
bash 复制代码
这个配置文件里的service_name就是之前在

[root@sysql1 filebeat]# vim filebeat.yml
[root@sysql1 filebeat]# pwd
/usr/local/filebeat

这个目录下设置的_nginx
bash 复制代码
nohup ./filebeat -e -c filebeat.yml  > filebeat.out &

-e:输出到标准输出

-c:指定配置文件

nohup:在系统的后台运行,不会因为终端的关闭导致后台停止运行

​ > : 可以把运行的日志文件保存到指定的文件

启动设置好的配置文件

如果页面访问不了 刷新一下

如果还不行就进入虚拟机启动脚本并将他放入后台运行

mysql

nginx

httpd

通过远程收集发送到 logstash

ip +_mysql-*

ip +_nginx-*

ip +_httpd-*

mysql的日志文件 用于二进制收集文件的路径

修改端口nginx的端口 不然两个服务端口冲突 可修改任意 然后页面访问查看

nginx nginx的日志存放路径

httpd 日志存放路径

mysql 日志存放路径

bash 复制代码
- type: log
  enabled: true
  paths:
    - /var/log/nginx/access.log
    - /var/log/nginx/error.log
  tags: ["nginx"]
  fields:
    service_name: 20.0.0.40_nginx
    log_type: nginx
    from: 20.0.0.40

- type: log
  enabled: true
  paths:
    - /var/log/httpd/access_log
    - /var/log/httpd/error_log
  tags: ["httpd"]
  fields:
    service_name: 20.0.0.40_httpd
    log_type: httpd
    from: 20.0.0.40

- type: log
  enabled: true
  paths:
    - /usr/local/mysql/data/mysql_general.log
  tags: ["mysqld"]
  fields:
    service_name: 20.0.0.40_mysqld
    log_type: mysql
    from: 20.0.0.40

脚本修改名字


bash 复制代码
input {

   beats { port => "5050" }
    }
output {
   if "nginx" in [tags] {
        elasticsearch {
             hosts => ["20.0.0.13:9200","20.0.0.14:9200"]
             index => "%{[fields][service_name]}-%{+YYYY.MM.dd}"
             }
            }
     if "httpd" in [tags] {
        elasticsearch {
             hosts => ["20.0.0.13:9200","20.0.0.14:9200"]
             index => "%{[fields][service_name]}-%{+YYYY.MM.dd}"
             }
            }
       if "mysqld" in [tags] {
        elasticsearch {
             hosts => ["20.0.0.13:9200","20.0.0.14:9200"]
             index => "%{[fields][service_name]}-%{+YYYY.MM.dd}"
             }
            }

}
bash 复制代码
nohup ./filebeat -e -c filebeat.yml  > filebeat.out &
[1] 20372
[root@sysql1 filebeat]# nohup: 忽略输入重定向错误到标准输出端
bash 复制代码
logstash -f nmh_40.conf --path.data /opt/test7 &

页面访问

kiabana上边就已经可以展示了

相关推荐
昱宸星光9 天前
ELK日志收集平台搭建
elk
认真的薛薛11 天前
2-监控:elk采集各种日志并出图
前端·chrome·elk
认真的薛薛12 天前
1-监控:elk部署与概念
elk
Sleep`15 天前
基于Suricata与ELK的网络流量检测
elk·数据可视化·suricata·流量
张小凡vip16 天前
从ELK到EFK日志管理架构的演进与实战部署
elk·架构·efk
叱咤少帅(少帅)21 天前
基于ELK 收集K8S的日志
elk·容器·kubernetes
一叶飘零_sweeeet25 天前
ELK 搭建实战:从 0 到 1 打通日志收集、分析与可视化
elk·kibana·es·logstash
黑棠会长25 天前
ELK 安全可观测系列开篇:把日志做成“防弹衣”的一部分
安全·elk·架构
程序员泠零澪回家种桔子1 个月前
微服务日志治理:ELK 栈实战指南
后端·elk·微服务·云原生·架构
虫小宝1 个月前
淘宝返利软件的日志审计系统:Java Logback+ELK Stack实现操作日志的可追溯与可视化分析
java·elk·logback