ES+FileBeat+Kibana日志采集搭建体验

1.环境准备

需要linux操作系统,并安装了docker环境

此处使用虚拟机演示。(虚拟机和docker看参考我之前写的文章)

VirtualBox安装Oracle Linux 7.9全流程-CSDN博客

VirtualBox上的Oracle Linux虚拟机安装Docker全流程-CSDN博客

简单演示搭建ES+FileBeat+Kibana进行日志采集、上报、展示、搜索流程。

2.创建elk网络

docker network create elk

3.docker拉取并启动ES

docker run -d \

--name=elasticsearch \

-v es-data:/usr/share/elasticsearch/data \

-e ES_JAVA_OPTS="-Xms256m -Xmx512m" \

-e "discovery.type=single-node" \

-e "xpack.security.enabled=false" \

--net elk \

-p 9200:9200 -p 9300:9300 \

docker.elastic.co/elasticsearch/elasticsearch:8.6.2

镜像比较大,执行需要耐心等待下。

Elasticsearch容器启动成功。

访问http://192.168.56.103:9200 显示如下

4.docker拉取并启动kibana

docker run -d \

--name=kibana \

-e ELASTICSEARCH_HOSTS=http://elasticsearch:9200 \

-e I18N_LOCALE=zh-CN \

--net elk \

-p 5601:5601 \

docker.elastic.co/kibana/kibana:8.6.2
kibana容器启动成功

#查看运行的容器

docker ps -a

#观察kibana容器日志输出

docker logs kibana --tail 20 -f

访问http://192.168.56.103:5601

5.安装filebeat日志采集

5.1 安装filebeat

wget https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-8.6.2-x86_64.rpm

rpm -ivh filebeat-8.6.2-x86_64.rpm

5.2 修改filebeat配置

cd /etc/filebeat

mv filebeat.yml filebeat.yml.bak

vim filebeat.yml

添加如下:
filebeat.inputs:

  • type: log

enabled: true

paths:

  • /var/log/*log

  • /var/log/messages

setup.ilm.enabled: false

setup.template.name: "test"

setup.template.pattern: "test-*"

output.elasticsearch:

hosts: ["http://localhost:9200"]

index: "test-%{+yyyy.MM.dd}"

5.3启动filebeat

#测试配置是否正确

filebeat test config


#测试一下 Filebeat 和 Elasticsearch 是否连接成功


#设置初始环境

filebeat setup -e

#启动filebeat

systemctl start filebeat

#查看filebeat的日志

tail -20f /var/log/messages

6.kibana配置数据视图及展示搜索日志

最终能看到日志已经加载到ES上了,在kibana上的效果如下:

这些匹配的规则文件都会被上报到es中

/var/log/*log #这个是符合log后缀的文件

/var/log/messages #这个是filebeat的日志文件

相关推荐
IT毕设梦工厂1 小时前
大数据毕业设计选题推荐-基于大数据的1688商品类目关系分析与可视化系统-Hadoop-Spark-数据可视化-BigData
大数据·毕业设计·源码·数据可视化·bigdata·选题推荐
君不见,青丝成雪2 小时前
Hadoop技术栈(四)HIVE常用函数汇总
大数据·数据库·数据仓库·hive·sql
万邦科技Lafite2 小时前
利用淘宝开放API接口监控商品状态,掌握第一信息
大数据·python·电商开放平台·开放api接口·淘宝开放平台
更深兼春远7 小时前
flink+clinkhouse安装部署
大数据·clickhouse·flink
专注API从业者10 小时前
Python + 淘宝 API 开发:自动化采集商品数据的完整流程
大数据·运维·前端·数据挖掘·自动化
媒体人88811 小时前
GEO 优化专家孟庆涛:技术破壁者重构 AI 时代搜索逻辑
大数据·人工智能
最初的↘那颗心12 小时前
Flink Stream API 源码走读 - print()
java·大数据·hadoop·flink·实时计算
颜如玉13 小时前
ElasticSearch关键参数备忘
后端·elasticsearch·搜索引擎
君不见,青丝成雪13 小时前
hadoop技术栈(九)Hbase替代方案
大数据·hadoop·hbase
晴天彩虹雨13 小时前
存算分离与云原生:数据平台的新基石
大数据·hadoop·云原生·spark