Elasticsearch+Logstash+Filebeat+Kibana部署

软件说明:

所有软件包下载地址:https://www.elastic.co/cn/downloads/past-releases

打开页面后选择对应的组件及版本即可!

所有软件包名称如下:

架构拓扑:

1、集群模式:

2、单机模式

架构规划:

1、集群模式

角色 主机名 IP地址
图形展示 kibana 192.168.166.111
日志存储 es1 192.168.158.6
es2 192.168.166.113
es3 192.168.166.114
日志收集分析 lostash1 192.168.166.166
lostash2 192.168.166.116
lostash3 192.168.166.117
日志采集 access、error 192.168.166.118

2、单机模式

角色 主机名 IP地址
图形展示 kibana 192.168.52.
日志存储 es 192.168.52.
日志收集分析 lostash 192.168.52.
日志采集 access、error 192.168.52.

一、配置准备

主机IP:192.168.52.202

1、关闭防火墙与安全上下文

cpp 复制代码
systemctl disable --now firewalld
cpp 复制代码
setenforce 0
cpp 复制代码
yum install -y lrzsz

2、安装elasticsearch、Kibana、logstash、filebeat

cpp 复制代码
rpm -ivh kibana-7.1.1-x86_64.rpm 
rpm -ivh elasticsearch-7.1.1-x86_64.rpm 
rpm -ivh logstash-7.1.1.rpm
rpm -ivh filebeat-7.1.1-x86_64.rpm

3、下载java,需要Java环境

cpp 复制代码
yum -y install java-1.8.0-openjdk-devel.x86_64

二、单机模式 ELK部署

1、elasticsearch配置

进入配置文件

cpp 复制代码
vim /etc/elasticsearch/elasticsearch.yml
cpp 复制代码
http.cors.enabled: true
http.cors.allow-origin: "*"

1.1、启动elasticsearch服务

cpp 复制代码
systemctl start elasticsearch.service 

查看启用状态

查看监听端口

2、logstash部署

cpp 复制代码
cd /etc/logstash/conf.d/
ls
vim pipline.conf
cpp 复制代码
input {
  file {
    path => "/var/log/messages"
    start_position => "beginning"
  }
}
output {
  elasticsearch {
    hosts => ["http://192.168.52.202:9200"]
    index => "system-log-%{+YYYY.MM.dd}"
  }
###日志进行标准输出,观察日志获取的过程###
  stdout {
    codec => rubydebug
  }
}

优化logstash命令

cpp 复制代码
ln -s /usr/share/logstash/bin/logstash /usr/local/bin/

3、kibana部署

进入配置文件

cpp 复制代码
vim /etc/kibana/kibana.yml

3.1、启动服务kebana服务

cpp 复制代码
systemctl start kibana.service

查看状态

cpp 复制代码
netstat -anput | grep node

4、验证

cpp 复制代码
[root@localhost elasticsearch]# logstash -e 'input{ stdin{} }output { stdout{} }'
cpp 复制代码
[root@localhost elasticsearch]# logstash -e 'input { stdin{} } output { stdout{ codec=>rubydebug }}'

5、网页验证

6、生成表格

cpp 复制代码
[root@elk elasticsearch]# logstash -f /etc/logstash/conf.d/pipline.conf
相关推荐
洛森唛7 小时前
ElasticSearch查询语句Query String详解:从入门到精通
后端·elasticsearch
字节跳动数据平台8 小时前
5000 字技术向拆解 | 火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
武子康14 小时前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
洛森唛1 天前
Elasticsearch DSL 查询语法大全:从入门到精通
后端·elasticsearch
字节跳动数据平台1 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术1 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
武子康2 天前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
武子康2 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天3 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
Elasticsearch3 天前
如何使用 Agent Builder 排查 Kubernetes Pod 重启和 OOMKilled 事件
elasticsearch