Elasticsearch+Logstash+Filebeat+Kibana部署

软件说明:

所有软件包下载地址:https://www.elastic.co/cn/downloads/past-releases

打开页面后选择对应的组件及版本即可!

所有软件包名称如下:

架构拓扑:

1、集群模式:

2、单机模式

架构规划:

1、集群模式

角色 主机名 IP地址
图形展示 kibana 192.168.166.111
日志存储 es1 192.168.158.6
es2 192.168.166.113
es3 192.168.166.114
日志收集分析 lostash1 192.168.166.166
lostash2 192.168.166.116
lostash3 192.168.166.117
日志采集 access、error 192.168.166.118

2、单机模式

角色 主机名 IP地址
图形展示 kibana 192.168.52.
日志存储 es 192.168.52.
日志收集分析 lostash 192.168.52.
日志采集 access、error 192.168.52.

一、配置准备

主机IP:192.168.52.202

1、关闭防火墙与安全上下文

cpp 复制代码
systemctl disable --now firewalld
cpp 复制代码
setenforce 0
cpp 复制代码
yum install -y lrzsz

2、安装elasticsearch、Kibana、logstash、filebeat

cpp 复制代码
rpm -ivh kibana-7.1.1-x86_64.rpm 
rpm -ivh elasticsearch-7.1.1-x86_64.rpm 
rpm -ivh logstash-7.1.1.rpm
rpm -ivh filebeat-7.1.1-x86_64.rpm

3、下载java,需要Java环境

cpp 复制代码
yum -y install java-1.8.0-openjdk-devel.x86_64

二、单机模式 ELK部署

1、elasticsearch配置

进入配置文件

cpp 复制代码
vim /etc/elasticsearch/elasticsearch.yml
cpp 复制代码
http.cors.enabled: true
http.cors.allow-origin: "*"

1.1、启动elasticsearch服务

cpp 复制代码
systemctl start elasticsearch.service 

查看启用状态

查看监听端口

2、logstash部署

cpp 复制代码
cd /etc/logstash/conf.d/
ls
vim pipline.conf
cpp 复制代码
input {
  file {
    path => "/var/log/messages"
    start_position => "beginning"
  }
}
output {
  elasticsearch {
    hosts => ["http://192.168.52.202:9200"]
    index => "system-log-%{+YYYY.MM.dd}"
  }
###日志进行标准输出,观察日志获取的过程###
  stdout {
    codec => rubydebug
  }
}

优化logstash命令

cpp 复制代码
ln -s /usr/share/logstash/bin/logstash /usr/local/bin/

3、kibana部署

进入配置文件

cpp 复制代码
vim /etc/kibana/kibana.yml

3.1、启动服务kebana服务

cpp 复制代码
systemctl start kibana.service

查看状态

cpp 复制代码
netstat -anput | grep node

4、验证

cpp 复制代码
[root@localhost elasticsearch]# logstash -e 'input{ stdin{} }output { stdout{} }'
cpp 复制代码
[root@localhost elasticsearch]# logstash -e 'input { stdin{} } output { stdout{ codec=>rubydebug }}'

5、网页验证

6、生成表格

cpp 复制代码
[root@elk elasticsearch]# logstash -f /etc/logstash/conf.d/pipline.conf
相关推荐
俊哥大数据4 小时前
【项目10】基于Flink房地产领域大数据实时分析系统
大数据·flink
sensen_kiss5 小时前
INT303 Big Data Analysis 大数据分析 Pt.12 推荐系统(Recommendation Systems)
大数据·数据挖掘·数据分析
数字化转型20255 小时前
企业数字化架构集成能力建设
大数据·程序人生·机器学习
jayaccc5 小时前
Git命令大全:从入门到精通
大数据·git·elasticsearch
Hello.Reader5 小时前
Flink CEP Pattern API、连续性、跳过策略、超时与迟到数据一篇讲透
大数据·flink
极海拾贝6 小时前
GeoScene解决方案中心正式上线!
大数据·人工智能·深度学习·arcgis·信息可视化·语言模型·解决方案
论迹7 小时前
【Git】-- Git安装 & 卸载(ubuntu)
git·ubuntu·elasticsearch
qq_262496099 小时前
Elasticsearch 核心参数调优指南
大数据·elasticsearch
OpenCSG9 小时前
AgenticOps 如何重构企业 AI 的全生命周期管理体系
大数据·人工智能·深度学习
阿里云大数据AI技术10 小时前
漫画说:为什么你的“增量计算”越跑越慢?——90%的实时数仓团队都踩过的坑,藏在这几格漫画里
大数据·人工智能