Filebeat+Kafka+ELK

ELK+Kafka+zookeeper+Filebeat(nginx)

less 复制代码
------------------------------ ELK+Kafka+zookeeper+Filebeat(nginx) --------------------------------

192.168.11.150	es1 	Elasticsearch+Elasticsearch-head+phantomjs+node
192.168.11.151 	es2 	Elasticsearch+Elasticsearch-head+phantomjs+node
192.168.11.152 	logstash+kibana
192.168.11.144 	zookeeper+kafka
192.168.11.145	zookeeper+kafka
192.168.11.146	zookeeper+kafka
192.168.11.137 	filebeat+nginx
less 复制代码
192.168.11.137    filebeat+nginx

[root@test2 ~]# cd /opt/
[root@test2 ~]# tar -xf filebeat-6.7.2-linux-x86_64.tar.gz
[root@test2 ~]# mv filebeat-6.7.2-linux-x86_64 filebeat
[root@test2 ~]# cd filebeat/
[root@test2 filebeat]# pwd
/opt/filebeat
[root@test2 filebeat]# vim filebeat.yml 
filebeat.prospectors:
- type: log
  enabled: true
  paths:
    - /var/log/nginx/access_log
  tags: ["access"]
  
- type: log
  enabled: true
  paths:
    - /var/log/nginx/error_log
  tags: ["error"]
#添加输出到 Kafka 的配置
161行
output.kafka:
  enabled: true
  hosts: ["192.168.11.144:9092","192.168.11.145:9092","192.168.11.146:9092"]    #指定 Kafka 集群配置
  topic: "nginx"    #指定 Kafka 的 topic
  
#启动 filebeat
nohup ./filebeat -e -c filebeat.yml> filebeat.out &
less 复制代码
192.168.11.152  
[root@apache-elk3 ~]# cd /etc/logstash/conf.d/
[root@apache-elk3 conf.d]# vim kafka.conf 
input {
    kafka {
        bootstrap_servers => "192.168.11.144:9092","192.168.11.145:9092","192.168.11.146:9092"  
		#kafka集群地址
        topics  => "nginx"     
		#拉取的kafka的指定topic
        type => "nginx_kafka"  
		#指定 type 字段
        codec => "json"        
		#解析json格式的日志数据
		auto_offset_reset => "latest"  
		#拉取最近数据,earliest为从头开始拉取
		decorate_events => true   
		#传递给elasticsearch的数据额外增加kafka的属性数据
    }
}

output {
  if "access" in [tags] {
    elasticsearch {
      hosts => ["192.168.11.150:9200","192.168.11.151:9200"]
      index => "nginx_access-%{+YYYY.MM.dd}"
    }
  }
  
  if "error" in [tags] {
    elasticsearch {
      hosts => ["192.168.11.150:9200","192.168.11.151:9200"]
      index => "nginx_error-%{+YYYY.MM.dd}"
     }
   }
}

#启动 logstash
logstash -f kafka.conf --path.data /opt/test9 &

4.浏览器访问 http://192.168.39.60:5601 登录 Kibana,
单击"Create Index Pattern"按钮添加索引"filebeat_test-*",单击 "create" 按钮创建,
单击 "Discover" 按钮可查看图表信息及日志信息。

x Pattern"按钮添加索引"filebeat_test-*",单击 "create" 按钮创建,

单击 "Discover" 按钮可查看图表信息及日志信息。

复制代码
相关推荐
七夜zippoe16 小时前
[特殊字符] Python日志系统革命:Loguru结构化日志与ELK Stack集中管理实战指南
大数据·python·elk·loguru·logstash
@土豆21 小时前
Kafka on Kubernetes 有状态应用部署文档(KRaft 模式)
分布式·kafka·kubernetes
斯普信专业组1 天前
Kafka集群数据迁移方案:基于多Listener配置的集群迁移实践指南
分布式·kafka
蜜獾云1 天前
Kafka(2)-kafka架构-基本原理
分布式·架构·kafka
隔叶听风1 天前
RocketMQ 与 Kafka 长轮询详解
数据库·kafka·rocketmq
IvanCodes1 天前
二、Kafka核心架构与分布式存储
大数据·分布式·架构·kafka
indexsunny1 天前
互联网大厂Java面试实录:Spring Boot与微服务在电商场景中的应用解析
java·spring boot·面试·kafka·spring security·电商·microservices
deng-c-f1 天前
Linux C/C++ 学习日记(73):Kafka(一):基本介绍
分布式·学习·kafka
Chan161 天前
从生产到消费:Kafka 核心原理与实战指南
java·spring boot·分布式·spring·java-ee·kafka·消息队列
yzp-1 天前
Kafka 原子更新,精确一次消费 Exactly-Once --------- 学习笔记
分布式·学习·kafka