Filebeat+ELK 部署

Node1节点(2C/4G):node1/192.168.8.10 Elasticsearch Kibana

Node2节点(2C/4G):node2/192.168.8.11 Elasticsearch

Apache节点:apache/192.168.8.13 Logstash Apache

Filebeat节点:filebeat/192.168.8.20 Filebeat

//在 Node1 节点上操作

1.安装 Filebeat

#上传软件包 filebeat-6.2.4-linux-x86_64.tar.gz 到/opt目录

tar zxvf filebeat-6.2.4-linux-x86_64.tar.gz

mv filebeat-6.2.4-linux-x86_64/ /usr/local/filebeat

2.设置 filebeat 的主配置文件

cd /usr/local/filebeat

vim filebeat.yml

filebeat.prospectors:

  • type: log #指定 log 类型,从日志文件中读取消息

enabled: true

paths:

  • /var/log/messages #指定监控的日志文件

  • /var/log/*.log

fields: #可以使用 fields 配置选项设置一些参数字段添加到 output 中

service_name: filebeat

log_type: log

service_id: 192.168.8.20

--------------Elasticsearch output-------------------

(全部注释掉)

----------------Logstash output---------------------

output.logstash:

hosts: ["192.168.8.20:5044"] #指定 logstash 的 IP 和端口

#启动 filebeat

./filebeat -e -c filebeat.yml

4.在 Logstash 组件所在节点上新建一个 Logstash 配置文件

cd /etc/logstash/conf.d

vim logstash.conf

input {

beats {

port => "5044"

}

}

output {

elasticsearch {

hosts => ["192.168.10.13:9200"]

index => "%{[fields][service_name]}-%{+YYYY.MM.dd}"

}

stdout {

codec => rubydebug

}

}

#启动 logstash

logstash -f logstash.conf

5.浏览器访问 http://192.168.8.10:5601 登录 Kibana,单击"Create Index Pattern"按钮添加索引"filebeat-*",单击 "create" 按钮创建,单击 "Discover" 按钮可查看图表信息及日志信息。

相关推荐
Lw老王要学习5 天前
Linux架构篇、第四章_ELK与EFK-7.17.9的日志管理
linux·运维·elk·架构·云计算
舌尖上的五香14 天前
ELK格式化处理日志数据并分析
elk
爱吃龙利鱼19 天前
elk中kibana一直处于可用和降级之间且es群集状态并没有问题的解决方法
大数据·elk·elasticsearch
yuzhangfeng24 天前
【日志体系】ELK Stack与云原生日志服务
elk·云原生·云计算
小黑蛋学java1 个月前
Elasticsearch 官网阅读学习笔记01
elk·学习笔记
码农不屈的一生1 个月前
docker部署elk
运维·elk
MarkHD1 个月前
第十八天 - ELK日志体系集成 - 自定义Logstash插件 - 练习:分布式日志分析平台
分布式·elk
小黑蛋学java1 个月前
Elasticsearch 学习规划
elk
小黑蛋学java1 个月前
Elasticsearch中的基本全文搜索和过滤
elk
小黑蛋学java1 个月前
Elasticsearch单节点安装手册
elk