通过es+ Kibana+ LogStash收集日志

架构

服务产生的日志,通过logstash收集到es中,并通过kibana展示出来,这里不再介绍三者的作用

部署es+Kibana

这三个的版本尽量要保持一致,我使用的是7.13.4

通过docker部署es

命令:

bash 复制代码
docker run --name elasticsearch -d -e ES_JAVA_OPTS="-Xms1024m -Xmx1024m" /
 -e "discovery.type=single-node" -p 9200:9200 -p 9300:9300 docker镜像

参数解释

-e ES_JAVA_OPTS="-Xms1024m -Xmx1024m" 限制内存大小,es比较吃内存,这里建议可以设置大一点

-e "discovery.type=single-node" 以单节点启动

-p 将端口映射出来

elasticsearch的9200端口是供外部访问使用;9300端口是供内部访问使用集群间通讯

docker部署kibana
bash 复制代码
docker run -d --name kibana  -e ELASTICSEARCH_HOSTS=es服务ip:端口 / -p 5601:5601 docker镜像

启动之后,如果需要可以配置一下这里面的用户,具体可以自己查询

部署logstash

这个是部署在你项目服务器上的,用于采集项目运行时产生的日志

bash 复制代码
wget https://artifacts.elastic.co/downloads/logstash/logstash-对应版本-linux-x86_64.tar.gz 

解压到你想在的目录下

tar -zxvf 压缩包

解压完进入logstash/config目录配置日志的输入源和输出位置

vim 你想要的名字.conf

conf 复制代码
#添加配置文件
input {
   # 从文件读取日志信息 输送到控制台
   file {
   # 日志文件目录
       path => "/home/shuxue/service/shuxueservice/web_app.log"
       codec => "json" ## 以JSON格式读取日志
       type => "elasticsearch"
       # 从头开始输出
       start_position => "beginning"
   }
}

# filter {
#
# }

output {
   # 标准输出
   # stdout {}
   # 输出进行格式化,如果不想在控制台输出,就把下面这一行注掉
   # stdout { codec => rubydebug }
        elasticsearch {
       hosts => ["es服务地址:9200"]
       index => "es索引"
   }
}

然后启动logstash,今日logstash/bin目录

bash 复制代码
./logstash -f ../config/上面的文件名.conf

这个时候访问kibana就能看到创建出来的索引了

但是这个时候你在ctrl+c的时候会退出,这个时候可以使用systemd让他常驻后台就可以了。

相关推荐
Hello.Reader2 分钟前
在 Flink Standalone 集群上运行 Flink CDC从下载到跑起一个 MySQL→Doris 同步任务
大数据·mysql·flink
小熊officer12 分钟前
Minio介绍
大数据
拓端研究室5 小时前
专题:2025AI产业全景洞察报告:企业应用、技术突破与市场机遇|附920+份报告PDF、数据、可视化模板汇总下载
大数据·人工智能·pdf
A尘埃6 小时前
Flink实时数据处理
大数据·flink·实时数据处理
金融小师妹7 小时前
基于NLP语义解析的联储政策信号:强化学习框架下的12月降息概率回升动态建模
大数据·人工智能·深度学习·1024程序员节
矶鹬笛手9 小时前
(2.2) 新一代信息技术及应用
大数据·云计算·区块链·时序数据库
transitory_truth11 小时前
es-api介绍
elasticsearch
汤姆yu11 小时前
基于python大数据的小说数据可视化及预测系统
大数据·python·信息可视化
光算科技11 小时前
网站301搬家后|谷歌一直不收录新页面怎么办
搜索引擎
立控信息LKONE12 小时前
库室采购安全设施设备——自主研发、国产化监管一体机
大数据·安全