Filebeat+Kafka+ELK

ELK+Kafka+zookeeper+Filebeat(nginx)

less 复制代码
------------------------------ ELK+Kafka+zookeeper+Filebeat(nginx) --------------------------------

192.168.11.150	es1 	Elasticsearch+Elasticsearch-head+phantomjs+node
192.168.11.151 	es2 	Elasticsearch+Elasticsearch-head+phantomjs+node
192.168.11.152 	logstash+kibana
192.168.11.144 	zookeeper+kafka
192.168.11.145	zookeeper+kafka
192.168.11.146	zookeeper+kafka
192.168.11.137 	filebeat+nginx
less 复制代码
192.168.11.137    filebeat+nginx

[root@test2 ~]# cd /opt/
[root@test2 ~]# tar -xf filebeat-6.7.2-linux-x86_64.tar.gz
[root@test2 ~]# mv filebeat-6.7.2-linux-x86_64 filebeat
[root@test2 ~]# cd filebeat/
[root@test2 filebeat]# pwd
/opt/filebeat
[root@test2 filebeat]# vim filebeat.yml 
filebeat.prospectors:
- type: log
  enabled: true
  paths:
    - /var/log/nginx/access_log
  tags: ["access"]
  
- type: log
  enabled: true
  paths:
    - /var/log/nginx/error_log
  tags: ["error"]
#添加输出到 Kafka 的配置
161行
output.kafka:
  enabled: true
  hosts: ["192.168.11.144:9092","192.168.11.145:9092","192.168.11.146:9092"]    #指定 Kafka 集群配置
  topic: "nginx"    #指定 Kafka 的 topic
  
#启动 filebeat
nohup ./filebeat -e -c filebeat.yml> filebeat.out &
less 复制代码
192.168.11.152  
[root@apache-elk3 ~]# cd /etc/logstash/conf.d/
[root@apache-elk3 conf.d]# vim kafka.conf 
input {
    kafka {
        bootstrap_servers => "192.168.11.144:9092","192.168.11.145:9092","192.168.11.146:9092"  
		#kafka集群地址
        topics  => "nginx"     
		#拉取的kafka的指定topic
        type => "nginx_kafka"  
		#指定 type 字段
        codec => "json"        
		#解析json格式的日志数据
		auto_offset_reset => "latest"  
		#拉取最近数据,earliest为从头开始拉取
		decorate_events => true   
		#传递给elasticsearch的数据额外增加kafka的属性数据
    }
}

output {
  if "access" in [tags] {
    elasticsearch {
      hosts => ["192.168.11.150:9200","192.168.11.151:9200"]
      index => "nginx_access-%{+YYYY.MM.dd}"
    }
  }
  
  if "error" in [tags] {
    elasticsearch {
      hosts => ["192.168.11.150:9200","192.168.11.151:9200"]
      index => "nginx_error-%{+YYYY.MM.dd}"
     }
   }
}

#启动 logstash
logstash -f kafka.conf --path.data /opt/test9 &

4.浏览器访问 http://192.168.39.60:5601 登录 Kibana,
单击"Create Index Pattern"按钮添加索引"filebeat_test-*",单击 "create" 按钮创建,
单击 "Discover" 按钮可查看图表信息及日志信息。

x Pattern"按钮添加索引"filebeat_test-*",单击 "create" 按钮创建,

单击 "Discover" 按钮可查看图表信息及日志信息。

复制代码
相关推荐
yh云想1 天前
《从入门到精通:Kafka核心原理全解析》
分布式·kafka
武子康1 天前
大数据-70 Kafka 日志清理:删除、压缩及混合模式最佳实践
大数据·后端·kafka
花酒锄作田2 天前
Nginx反向代理Kafka集群
nginx·kafka
武子康2 天前
大数据-69 Kafka 存储结构解析:日志文件与索引文件的内部机制
大数据·后端·kafka
自由自在的小Bird3 天前
kafka初步介绍
spring boot·后端·kafka
愚昧之山绝望之谷开悟之坡3 天前
Kafka 的消费
分布式·kafka
BD_Marathon3 天前
Kafka下载和安装
分布式·kafka
孫治AllenSun4 天前
【Docker】安装kafka案例
docker·容器·kafka
core5124 天前
基于elk实现分布式日志
分布式·elk·日志·logstash
bing_1584 天前
kafka 消费者组的概念是什么?它是如何实现消息的点对点和发布/订阅模式?
分布式·kafka