Elasticsearch+Logstash+Filebeat+Kibana部署

软件说明:

所有软件包下载地址:https://www.elastic.co/cn/downloads/past-releases

打开页面后选择对应的组件及版本即可!

所有软件包名称如下:

架构拓扑:

1、集群模式:

2、单机模式

架构规划:

1、集群模式

角色 主机名 IP地址
图形展示 kibana 192.168.166.111
日志存储 es1 192.168.158.6
es2 192.168.166.113
es3 192.168.166.114
日志收集分析 lostash1 192.168.166.166
lostash2 192.168.166.116
lostash3 192.168.166.117
日志采集 access、error 192.168.166.118

2、单机模式

角色 主机名 IP地址
图形展示 kibana 192.168.52.
日志存储 es 192.168.52.
日志收集分析 lostash 192.168.52.
日志采集 access、error 192.168.52.

一、配置准备

主机IP:192.168.52.202

1、关闭防火墙与安全上下文

cpp 复制代码
systemctl disable --now firewalld
cpp 复制代码
setenforce 0
cpp 复制代码
yum install -y lrzsz

2、安装elasticsearch、Kibana、logstash、filebeat

cpp 复制代码
rpm -ivh kibana-7.1.1-x86_64.rpm 
rpm -ivh elasticsearch-7.1.1-x86_64.rpm 
rpm -ivh logstash-7.1.1.rpm
rpm -ivh filebeat-7.1.1-x86_64.rpm

3、下载java,需要Java环境

cpp 复制代码
yum -y install java-1.8.0-openjdk-devel.x86_64

二、单机模式 ELK部署

1、elasticsearch配置

进入配置文件

cpp 复制代码
vim /etc/elasticsearch/elasticsearch.yml
cpp 复制代码
http.cors.enabled: true
http.cors.allow-origin: "*"

1.1、启动elasticsearch服务

cpp 复制代码
systemctl start elasticsearch.service 

查看启用状态

查看监听端口

2、logstash部署

cpp 复制代码
cd /etc/logstash/conf.d/
ls
vim pipline.conf
cpp 复制代码
input {
  file {
    path => "/var/log/messages"
    start_position => "beginning"
  }
}
output {
  elasticsearch {
    hosts => ["http://192.168.52.202:9200"]
    index => "system-log-%{+YYYY.MM.dd}"
  }
###日志进行标准输出,观察日志获取的过程###
  stdout {
    codec => rubydebug
  }
}

优化logstash命令

cpp 复制代码
ln -s /usr/share/logstash/bin/logstash /usr/local/bin/

3、kibana部署

进入配置文件

cpp 复制代码
vim /etc/kibana/kibana.yml

3.1、启动服务kebana服务

cpp 复制代码
systemctl start kibana.service

查看状态

cpp 复制代码
netstat -anput | grep node

4、验证

cpp 复制代码
[root@localhost elasticsearch]# logstash -e 'input{ stdin{} }output { stdout{} }'
cpp 复制代码
[root@localhost elasticsearch]# logstash -e 'input { stdin{} } output { stdout{ codec=>rubydebug }}'

5、网页验证

6、生成表格

cpp 复制代码
[root@elk elasticsearch]# logstash -f /etc/logstash/conf.d/pipline.conf
相关推荐
武子康5 分钟前
大数据-187 Logstash Filter 插件实战:grok 解析控制台与 Nginx 日志(7.3.0 配置可复用)
大数据·后端·logstash
老蒋新思维12 分钟前
创客匠人:工作流嵌入式智能体,重构知识变现的效率底层
大数据·服务器·人工智能·重构·创始人ip·创客匠人·知识变现
TDengine (老段)15 分钟前
开放生态破局工业大数据困局:TDengine 的迭代升级与全链路数据自由流动
大数据·数据库·物联网·时序数据库·tdengine·涛思数据
Jackyzhe34 分钟前
Flink源码阅读:状态管理
大数据·flink
跨境卫士—小依35 分钟前
打破认知牢笼:合规新纪元,运营成本如何变身增长引擎?
大数据·矩阵·跨境电商·亚马逊·防关联
TG:@yunlaoda360 云老大39 分钟前
如何使用腾讯云国际站代理商的SOE进行口语评测?
大数据·云计算·腾讯云
元宇宙时间1 小时前
数字人民币助力亚太经合新金融秩序——构建亚太数字经济与区域金融协同的关键基础设施
大数据·人工智能·金融
百***78751 小时前
【保姆级教程】GPT-5.1极速接入指南:3步上手多模态AI能力
大数据·python·gpt·opencv
源雀数智1 小时前
企微SCRM源码分享:源雀SCRM
大数据·人工智能·企业微信·流量运营·gitcode
尺度商业1 小时前
2025:科技投资正酣,如何答好这道题?
大数据·人工智能·科技