Filebeat+ELK 部署

Node1节点(2C/4G):node1/192.168.8.10 Elasticsearch Kibana

Node2节点(2C/4G):node2/192.168.8.11 Elasticsearch

Apache节点:apache/192.168.8.13 Logstash Apache

Filebeat节点:filebeat/192.168.8.20 Filebeat

//在 Node1 节点上操作

1.安装 Filebeat

#上传软件包 filebeat-6.2.4-linux-x86_64.tar.gz 到/opt目录

tar zxvf filebeat-6.2.4-linux-x86_64.tar.gz

mv filebeat-6.2.4-linux-x86_64/ /usr/local/filebeat

2.设置 filebeat 的主配置文件

cd /usr/local/filebeat

vim filebeat.yml

filebeat.prospectors:

  • type: log #指定 log 类型,从日志文件中读取消息

enabled: true

paths:

  • /var/log/messages #指定监控的日志文件

  • /var/log/*.log

fields: #可以使用 fields 配置选项设置一些参数字段添加到 output 中

service_name: filebeat

log_type: log

service_id: 192.168.8.20

--------------Elasticsearch output-------------------

(全部注释掉)

----------------Logstash output---------------------

output.logstash:

hosts: ["192.168.8.20:5044"] #指定 logstash 的 IP 和端口

#启动 filebeat

./filebeat -e -c filebeat.yml

4.在 Logstash 组件所在节点上新建一个 Logstash 配置文件

cd /etc/logstash/conf.d

vim logstash.conf

input {

beats {

port => "5044"

}

}

output {

elasticsearch {

hosts => ["192.168.10.13:9200"]

index => "%{[fields][service_name]}-%{+YYYY.MM.dd}"

}

stdout {

codec => rubydebug

}

}

#启动 logstash

logstash -f logstash.conf

5.浏览器访问 http://192.168.8.10:5601 登录 Kibana,单击"Create Index Pattern"按钮添加索引"filebeat-*",单击 "create" 按钮创建,单击 "Discover" 按钮可查看图表信息及日志信息。

相关推荐
霸气del3 天前
ELK搭建
elk
正怒月神7 天前
docker-compose 启动 elk
elk·docker·容器
故事很腻i7 天前
安装elk
运维·elk·jenkins
小醉你真好7 天前
15、Docker Compose 安装ELK + Filebeat单机版
elk·docker·jenkins
東雪蓮☆10 天前
Filebeat+Kafka+ELK 日志采集实战
分布式·elk·kafka
虚伪的空想家20 天前
K8S部署的ELK分片问题解决,报错:unexpected error while indexing monitoring document
运维·elk·云原生·容器·kubernetes·报错·eck
三坛海会大神55521 天前
ELK分析系统详解
运维·elk
東雪蓮☆22 天前
ELK 企业级日志分析系统实战教程
linux·运维·elk
zcz160712782123 天前
从 ZooKeeper 到 ELK:分布式中间件与日志分析系统全解析
分布式·elk·zookeeper
weixin_5078479523 天前
ELK企业级日志分析系统
elk