ELK+filebeat+kafka

无需创建logstash的端口,直接创建topic

远程收集mysql和httpd的日志

(一)安装nginx和mysql服务

1、打开mysql的日志功能

2、创建日志(创库、创表、添加数据)

(1)mysql服务器上安装http

systemctl restart httpd.service
(2)访问测试

(二)部署安装filebeat

1、编辑filebeat的配置文件

(1)启动filebeat服务
nohup ./filebeat -e -c filebeat.yml > filebeat.out &

(三)配置logstash的conf文件

|--------------------------------------|-----------------------------|
| codec => "json" | 解析json格式的代码 |
| auto_offset_reset => "earliest" | 从头 获取数据 |
| auto_offset_reset => "latest" | 实时获取 |
| decorate_events => true | 传递给es实例中的信息包含kafka的属性数据 |

1、启动logstash服务

2、打开消费消息

主题mysql1和httpd1已经创建
1 打开httpd1主题
kafka-console-consumer.sh --bootstrap-server 20.0.0.51:9092,20.0.0.52:9092,20.0.0.53:9093 --topic httpd1 --from-beginning
2 打开mysql1主题
kafka-console-consumer.sh --bootstrap-server 20.0.0.51:9092,20.0.0.52:9092,20.0.0.53:9093 --topic mysql 1 --from-beginning

(四)查看索引

启动ES:npm run start &

(五)访问服务,查看能否收到日志

相关推荐
lang20150928几秒前
Kafka副本同步机制核心解析
分布式·kafka·linq
要开心吖ZSH1 小时前
应用集成平台-系统之间的桥梁-思路分享
java·kafka·交互
lang201509283 小时前
深入解析Kafka核心:Partition类源码揭秘
分布式·kafka·linq
Blossom.1183 小时前
基于图神经网络+大模型的网络安全APT检测系统:从流量日志到攻击链溯源的实战落地
人工智能·分布式·深度学习·安全·web安全·开源软件·embedding
梦里不知身是客114 小时前
spark如何调节jvm的连接等待时长
大数据·分布式·spark
梦里不知身是客114 小时前
spark的血脉机制
大数据·分布式·spark
Query*5 小时前
分布式消息队列kafka【六】—— kafka整合数据同步神器canal
分布式·kafka
2301_807288635 小时前
MPRPC项目(第七天,rpcprovider分发rpc服务)
网络·分布式·rpc
L、2185 小时前
深入实战:使用 Platform Channel 实现 Flutter 与 OpenHarmony 原生能力互通
分布式·flutter·harmonyos