通过es+ Kibana+ LogStash收集日志

架构

服务产生的日志,通过logstash收集到es中,并通过kibana展示出来,这里不再介绍三者的作用

部署es+Kibana

这三个的版本尽量要保持一致,我使用的是7.13.4

通过docker部署es

命令:

bash 复制代码
docker run --name elasticsearch -d -e ES_JAVA_OPTS="-Xms1024m -Xmx1024m" /
 -e "discovery.type=single-node" -p 9200:9200 -p 9300:9300 docker镜像

参数解释

-e ES_JAVA_OPTS="-Xms1024m -Xmx1024m" 限制内存大小,es比较吃内存,这里建议可以设置大一点

-e "discovery.type=single-node" 以单节点启动

-p 将端口映射出来

elasticsearch的9200端口是供外部访问使用;9300端口是供内部访问使用集群间通讯

docker部署kibana
bash 复制代码
docker run -d --name kibana  -e ELASTICSEARCH_HOSTS=es服务ip:端口 / -p 5601:5601 docker镜像

启动之后,如果需要可以配置一下这里面的用户,具体可以自己查询

部署logstash

这个是部署在你项目服务器上的,用于采集项目运行时产生的日志

bash 复制代码
wget https://artifacts.elastic.co/downloads/logstash/logstash-对应版本-linux-x86_64.tar.gz 

解压到你想在的目录下

tar -zxvf 压缩包

解压完进入logstash/config目录配置日志的输入源和输出位置

vim 你想要的名字.conf

conf 复制代码
#添加配置文件
input {
   # 从文件读取日志信息 输送到控制台
   file {
   # 日志文件目录
       path => "/home/shuxue/service/shuxueservice/web_app.log"
       codec => "json" ## 以JSON格式读取日志
       type => "elasticsearch"
       # 从头开始输出
       start_position => "beginning"
   }
}

# filter {
#
# }

output {
   # 标准输出
   # stdout {}
   # 输出进行格式化,如果不想在控制台输出,就把下面这一行注掉
   # stdout { codec => rubydebug }
        elasticsearch {
       hosts => ["es服务地址:9200"]
       index => "es索引"
   }
}

然后启动logstash,今日logstash/bin目录

bash 复制代码
./logstash -f ../config/上面的文件名.conf

这个时候访问kibana就能看到创建出来的索引了

但是这个时候你在ctrl+c的时候会退出,这个时候可以使用systemd让他常驻后台就可以了。

相关推荐
qq_463944869 小时前
【Spark征服之路-2.2-安装部署Spark(二)】
大数据·分布式·spark
weixin_5051544610 小时前
数字孪生在建设智慧城市中可以起到哪些作用或帮助?
大数据·人工智能·智慧城市·数字孪生·数据可视化
打码人的日常分享10 小时前
智慧城市建设方案
大数据·架构·智慧城市·制造
阿里云大数据AI技术12 小时前
ES Serverless 8.17王牌发布:向量检索「火力全开」,智能扩缩「秒级响应」!
大数据·运维·serverless
Mikhail_G13 小时前
Python应用变量与数据类型
大数据·运维·开发语言·python·数据分析
G皮T13 小时前
【Elasticsearch】映射:null_value 详解
大数据·elasticsearch·搜索引擎·映射·mappings·null_value
大霸王龙14 小时前
软件工程的软件生命周期通常分为以下主要阶段
大数据·人工智能·旅游
点赋科技15 小时前
沙市区举办资本市场赋能培训会 点赋科技分享智能消费新实践
大数据·人工智能
YSGZJJ15 小时前
股指期货技术分析与短线操作方法介绍
大数据·人工智能
Doker 多克15 小时前
Flink CDC —部署模式
大数据·flink