通过es+ Kibana+ LogStash收集日志

架构

服务产生的日志,通过logstash收集到es中,并通过kibana展示出来,这里不再介绍三者的作用

部署es+Kibana

这三个的版本尽量要保持一致,我使用的是7.13.4

通过docker部署es

命令:

bash 复制代码
docker run --name elasticsearch -d -e ES_JAVA_OPTS="-Xms1024m -Xmx1024m" /
 -e "discovery.type=single-node" -p 9200:9200 -p 9300:9300 docker镜像

参数解释

-e ES_JAVA_OPTS="-Xms1024m -Xmx1024m" 限制内存大小,es比较吃内存,这里建议可以设置大一点

-e "discovery.type=single-node" 以单节点启动

-p 将端口映射出来

elasticsearch的9200端口是供外部访问使用;9300端口是供内部访问使用集群间通讯

docker部署kibana
bash 复制代码
docker run -d --name kibana  -e ELASTICSEARCH_HOSTS=es服务ip:端口 / -p 5601:5601 docker镜像

启动之后,如果需要可以配置一下这里面的用户,具体可以自己查询

部署logstash

这个是部署在你项目服务器上的,用于采集项目运行时产生的日志

bash 复制代码
wget https://artifacts.elastic.co/downloads/logstash/logstash-对应版本-linux-x86_64.tar.gz 

解压到你想在的目录下

tar -zxvf 压缩包

解压完进入logstash/config目录配置日志的输入源和输出位置

vim 你想要的名字.conf

conf 复制代码
#添加配置文件
input {
   # 从文件读取日志信息 输送到控制台
   file {
   # 日志文件目录
       path => "/home/shuxue/service/shuxueservice/web_app.log"
       codec => "json" ## 以JSON格式读取日志
       type => "elasticsearch"
       # 从头开始输出
       start_position => "beginning"
   }
}

# filter {
#
# }

output {
   # 标准输出
   # stdout {}
   # 输出进行格式化,如果不想在控制台输出,就把下面这一行注掉
   # stdout { codec => rubydebug }
        elasticsearch {
       hosts => ["es服务地址:9200"]
       index => "es索引"
   }
}

然后启动logstash,今日logstash/bin目录

bash 复制代码
./logstash -f ../config/上面的文件名.conf

这个时候访问kibana就能看到创建出来的索引了

但是这个时候你在ctrl+c的时候会退出,这个时候可以使用systemd让他常驻后台就可以了。

相关推荐
【赫兹威客】浩哥2 分钟前
【赫兹威客】Hadoop完全分布式克隆文件部署教程
大数据·hadoop·分布式
你才是臭弟弟19 分钟前
Apache Flink+Apache Iceberg(协作关系)
大数据·flink·apache
KdanMin38 分钟前
“日志抓不到”到“全链路可追溯”:一次 Android 系统级日志体系的工程化实践
大数据·人工智能
珠海西格电力43 分钟前
零碳园区如何实现能源互联
大数据·人工智能·物联网·架构·能源
StarChainTech1 小时前
一站式租车平台革新:从信用免押到全流程可视化管理的技术实践
大数据·人工智能·微信小程序·小程序·软件需求
SmartBrain1 小时前
战略洞察:MAAS平台在三医领域的应用案例分析
大数据·人工智能·语言模型
海棠AI实验室2 小时前
第十六章 迭代器与生成器:处理大数据的第一步
大数据·迭代器·生成器
Hello.Reader2 小时前
Flink 部署组件拆解、参考架构、Application vs Session 选型,以及生产落地 Checklist
大数据·架构·flink
Mikhail_G3 小时前
Mysql数据库操作指南(零基础篇二)
大数据·数据库·sql·mysql·数据分析
hua_ban_yu3 小时前
闭包和return的关系
大数据