Filebeat+Kafka+ELK搭建

---------------- Filebeat+Kafka+ELK ----------------

1.部署 Zookeeper+Kafka 集群 (前面已经配过 20.0.0.101、20.0.0.102、20.0.0.103)

bash 复制代码
https://blog.csdn.net/m0_56509725/article/details/132908696?spm=1001.2014.3001.5501

1.1 配置ELK 在:

bash 复制代码
https://blog.csdn.net/m0_56509725/article/details/132853050?spm=1001.2014.3001.5501

2.部署 Filebeat

bash 复制代码
cd /usr/local/filebeat

vim filebeat.yml
filebeat.prospectors:
- type: log
  enabled: true
  paths:
    - /var/log/httpd/access_log
  tags: ["access"]
  
- type: log
  enabled: true
  paths:
    - /var/log/httpd/error_log
  tags: ["error"]
  
......
#添加输出到 Kafka 的配置
output.kafka:
  enabled: true
  hosts: ["20.0.0.101:9092","20.0.0.102:9092","20.0.0.103:9092"]    #指定 Kafka 集群配置
  topic: "httpd"    #指定 Kafka 的 topic
 #注意要把Elasticsearch output下的内容注释掉,否则会报错


#启动 filebeat

bash 复制代码
./filebeat -e -c filebeat.yml

3.部署 ELK,在 Logstash 组件所在节点上新建一个 Logstash 配置文件

bash 复制代码
cd /etc/logstash/conf.d/

vim kafka.conf
input {
    kafka {
        bootstrap_servers => "20.0.0.101:9092,20.0.0.102:9092,20.0.0.103:9092"  #kafka集群地址
        topics  => "httpd"     #拉取的kafka的指定topic
        type => "httpd_kafka"  #指定 type 字段
        codec => "json"        #解析json格式的日志数据
		auto_offset_reset => "latest"  #拉取最近数据,earliest为从头开始拉取
		decorate_events => true   #传递给elasticsearch的数据额外增加kafka的属性数据
    }
}

output {
  if "access" in [tags] {
    elasticsearch {
      hosts => ["20.0.0.105:9200"]
      index => "httpd_access-%{+YYYY.MM.dd}"
    }
  }
  
  if "error" in [tags] {
    elasticsearch {
      hosts => ["20.0.0.105:9200"]
      index => "httpd_error-%{+YYYY.MM.dd}"
    }
  }
  
  stdout { codec => rubydebug }
}

#启动 logstash

bash 复制代码
logstash -f kafka.conf

注:生产黑屏操作es时查看所有的索引:curl -X GET "localhost:9200/_cat/indices?v"

4.浏览器访问 http://20.0.0.106:5601 登录 Kibana,单击"Create Index Pattern"按钮添加索引"filebeat_test-*",单击 "create" 按钮创建,单击 "Discover" 按钮可查看图表信息及日志信息。

相关推荐
学软件的小铃铛9 小时前
ELK日志管理框架介绍
elk·系统架构
Wo3Shi4七11 小时前
Kafka综合运用:怎么在实践中保证Kafka_高性能?
后端·kafka·消息队列
livemetee18 小时前
一个完整的日志收集方案:Elasticsearch + Logstash + Kibana+Filebeat (二)
大数据·elk·搜索引擎
网安INF18 小时前
CVE-2023-25194源码分析与漏洞复现(Kafka JNDI注入)
java·web安全·网络安全·kafka·漏洞·jndi注入
HAPPY酷1 天前
Kafka 和Redis 在系统架构中的位置
redis·kafka·系统架构
忆雾屿1 天前
云原生时代 Kafka 深度实践:06原理剖析与源码解读
java·后端·云原生·kafka
TCChzp1 天前
Kafka入门-消费者
分布式·kafka
Dnui_King2 天前
Kafka 入门指南与一键部署
分布式·kafka
TCChzp2 天前
Kafka入门-生产者
分布式·kafka
计算机毕设定制辅导-无忧学长2 天前
Kafka 快速上手:安装部署与 HelloWorld 实践(二)
分布式·kafka