目录
1.5、缓存/消息队列(redis、kafka、RabbitMQ等)
⑦分片和副本(shards&replicas)也是es作为搜索引擎比较快的原因
⑧、相关概念在关系型数据库和ElasticSearch中的对应关系
[4.3修改 elasticsearch 主配置文件](#4.3修改 elasticsearch 主配置文件)
5、ELK-Logstash部署(在Apache节点上操作)
⑤将apache服务器的日志(访问的、错误的)添加到es并通过kibana显示apache服务器
3、安装filebeat(这里是下载的rpm安装包,所以步骤不一致)
5、在logstash组件所在节点(apache节点)上新建一个logstash配置文件
一、ELK概述
1、ELK组件说明
1.1ElasticSearch
①ElasticSearch是基于Lucene(一个全文检索引擎的架构)开发的分布式存储检索引擎,用来存储各类日志。
②Elasticsearch 是用 Java 开发的,可通过 RESTful Web 接口,让用户可以通过浏览器与 Elasticsearch 通信。
③Elasticsearch是一个实时的、分布式的可扩展的搜索引擎,允许进行全文、结构化搜索,它通常用于索引和搜索大容量的日志数据,也可用于搜索许多不同类型的文档。
1.2Kiabana
Kibana 通常与 Elasticsearch 一起部署,Kibana 是 Elasticsearch 的一个功能强大的数据可视化 Dashboard,Kibana 提供图形化的 web 界面来浏览 Elasticsearch 日志数据,可以用来汇总、分析和搜索重要数据。
1.3Logstash
①Logstash作为数据收集引擎。它支持动态的从各种数据源搜集数据,并对数据进行过滤、分析、丰富、统一格式等操作,然后存储到用户指定的位置,一般会发送给 Elasticsearch。
②Logstash 由 Ruby 语言编写,运行在 Java 虚拟机(JVM)上,是一款强大的数据处理工具, 可以实现数据传输、格式处理、格式化输出。Logstash 具有强大的插件功能,常用于日志处理。
1、input:设置数据来源
2、filter:可以对数据进行加工处理过滤,可以做复杂的处理逻辑。这个步骤不是必须的。
3、output:设置输出目标,如elasticSearch等。
1.4、Filebeat
Filebeat 是一款轻量级的开源日志文件数据搜索器。通常在需要采集数据的客户端安装 Filebeat,并指定目录与日志格式,Filebeat 就能快速收集数据,并发送给 Logstash 进行解析,或是直接发给 ES 存储,性能上相比运行于 JVM 上的 Logstash 优势明显,是对它的替代。
1.4.1filebeat结合logstash带来的好处
①通过Logstash具有基于磁盘的自适应缓冲系统,该系统将吸收传入的吞吐量,从而减轻Elasticsearch持续写入数据的压力。
②从其他数据源(例如数据库,S3对象存储或消息传递列)中提取
③将数据发送到多个目的地,例如S3,HDFS(Hadoop分布式文件系统)或写入文件
④使用条件数据流逻辑组成复杂的处理管道
1.4.2日志的集中化管理beats包括四种工具
①Packetbeat(搜索网络流量数据)
②Topbeat(搜索系统,进程和文件系统级别的CPU和内存使用情况等数据)
③Filebeat(搜集文件数据)
④Winlogbeat(搜集Windows时间日志数据)
1.5、缓存/消息队列(redis、kafka、RabbitMQ等)
可以对高并发日志数据进行流量削峰和缓冲,这样的缓冲可以一定程度的保护数据不丢失,还可以对整个架构进行应用解耦。
1.6Fluentd
Fluentd是一个流行的开源数据收集器。由于 logstash 太重量级的缺点,Logstash 性能低、资源消耗比较多等问题,随后就有 Fluentd 的出现。相比较 logstash,Fluentd 更易用、资源消耗更少、性能更高,在数据处理上更高效可靠,受到企业欢迎,成为 logstash 的一种替代方案,常应用于 EFK 架构当中。在 Kubernetes 集群中也常使用 EFK 作为日志数据收集的方案。
在 Kubernetes 集群中一般是通过 DaemonSet 来运行 Fluentd,以便它在每个 Kubernetes 工作节点上都可以运行一个 Pod。 它通过获取容器日志文件、过滤和转换日志数据,然后将数据传递到 Elasticsearch 集群,在该集群中对其进行索引和存储。
2、为什么要使用ELK?
日志主要包括系统日志、应用程序日志和安全日志。系统运维和开发人员可以通过日志了解服务器软硬件信息、检查配置过程中的错误及错误发生的原因。经常分析日志可以了解服务器的负荷,性能安全性,从而及时采取措施纠正错误。
往往单台机器的日志我们使用grep、awk等工具就能基本实现简单分析,但是当日志被分散的储存不同的设备上。如果你管理数十上百台服务器,你还在使用依次登录每台机器的传统方法查阅日志。这样是不是感觉很繁琐和效率低下。当务之急我们使用集中化的日志管理,例如:开源的syslog,将所有服务器上的日志收集汇总。集中化管理日志后,日志的统计和检索又成为一件比较麻烦的事情,一般我们使用 grep、awk和wc等Linux命令能实现检索和统计,但是对于要求更高的查询、排序和统计等要求和庞大的机器数量依然使用这样的方法难免有点力不从心。
一般大型系统是一个分布式部署的架构,不同的服务模块部署在不同的服务器上,问题出现时,大部分情况需要根据问题暴露的关键信息,定位到具体的服务器和服务模块,构建一套集中式日志系统,可以提高定位问题的效率。
3、完整日志系统的基本特征
①收集:能够采集多种来源的日志数据
②传输:能够稳定的把日志数据解析过滤并传输到存储系统
③存储:存储日志数据
④分析:支持UI分析
⑤警告:能够提供错误报告,监控机制
4、ELK工作原理
①AppServer是一个类似于Nginx、Apache的集群,其日志信息由Logstash来收集。
②往往为了减少网络问题所带来的瓶颈,会把Logstash服务放入前者的集群内,减少网络的消耗。
③Logstash把收集到的日志数据格式化后输出转存到ES数据库内(这是一个将日志进行集中化管理的过程)
④随后,Kibaba对ES数据库内格式化后日志数据信息进行索引和存储
⑤最后,Kibana把其展示给客户端
总结:Logstash作为日志搜集器,从数据源采集数据,并对数据进行过滤,格式化处理,然后交给由Elasticsearch存储,kibana对日志进行可视化处理。
二、Elsaticsearch的介绍
1、概述:
就是提供了一个分布式多用户能力的全文搜索引擎
2、Elasticsearch的核心:
①接近实时(NRT)
Elasticsearch是一个接近实时的搜索平台,这意味着,从索引一个文档直到这个文档能够被搜索到有一个轻微的延迟(通常是一秒)
②集群(cluster)
1.一个集群就是由一个或者多个节点组织在一起,它们共同持有你整个的数据,并一起提供索引和搜索功能。其中一个为主节点,这个主节点是可以通过选举产生的,并提供跨节点的联合索引和搜索功能。
2.集群有一个唯一标示的名字,默认是Elasticsearch,集群的名字很重要,每个节点是基于集群的名字加入到集群中的。因此,确保在不同的环境中使用不同的集群名字。
3.一个集群可以只有一个节点,建议在配置Elasticsearch时,配置成集群模式
4.Elasticsearch具有集群机制,节点通过集群名称加入到集群中,同时在集群中的节点会有一个自己唯一的身份表示(自己的名称)
③节点(node)
3.1节点就是一台单一的服务器,是集群的一部分,存储数据并参与集群的索引和搜索功能。像集群一样,节点也是通过名字来标识,默认是在节点启动时随机分配的字符名。也可自己定义,名字很重要,在集群中用于识别服务器对应的节点
3.2节点可以通过指定集群名字来加入到集群中。默认情况下,每个节点被设置成加入到Elasticsearch集群。如果启动了多个节点,假设能自动发现对方,他们将会自动组建一个名为Elasticsearch的集群。
④索引(index)
4.1一个索引就是一个拥有几分相似特征的文档的集合。
4.2一个索引由一个名字来标识(必须全部是小写字母),并且当我们要对应这个索引中的文档进行索引,搜索,更新和删除的时候。都要使用到这个名字。在一个集群中,可以定义任意多的索引。
⑤类型(type)
5.1在一个索引中,你可以定义一种或者多种类型。一个类型是你的索引的一个逻辑上的分类/分区,其语义完全由你来定义。
5.2通常会为具有一组共同字段的文档定义一个类型。
⑥、文档(document)
6.1一个文档是一个可被索引的基础信息单元
6.2在一个index/type里面,只要你想,你可以存储任意多的文档。注意,虽然一个文档在物理上位于一个索引中,实际上一个文档必须在一个索引内被索引和分配的一个类型。
⑦分片和副本(shards&replicas)也是es作为搜索引擎比较快的原因
实际情况下,索引存储的数据可能超过单个节点的硬件限制。为了解决这个问题,Elasticsearch提供将索引分成多个分片的功能。当在创建索引时,可以定义想要的分片数量。每一个分片就是一个全功能的独立的索引,可以位于集群中任何节点上。
7.1分片的主要原因:
①水平分割扩展,增大存储量
②分布式并跨越分片操作,提高性能和吞吐量
③分布式分片机制和搜索请求的文档如何火鬃完全是由Elasticsearch控制的,这些对用户是完全透明的。
④为了健壮性,建议有一个故障切换机制,为此,Elasticsearch让我们将索引分片复制一份或多份,称之为分片副本。
7.2分片副本的原因:
①高可用性:以应对分片或者节点故障。处于这个原因,分片副本要在不同的节点上。
②增大吞吐量,搜索可以并行在所有副本上执行
总之,每个索引可以被分成多个分片。一个索引可以被复制0次或者多次。一旦复制了,每个索引就有了主分片 (作为复制源的原来的分片)和复制分片(主分片的拷贝)之别。分片和副本的数量可以在索引创建的时候指定。在索引创建之后,你可以在指定任何时候动态的改变副本的数量,但是你事后不能改变分片的数量。
默认情况下,Elasticsearch中的每个索引被分片5个主分片和1个副本,这意味着,如果你的集群中至少有两个节点,你的索引将会有5个主分片和另外的5个副本分片(一个完全拷贝),这样的话每个索引总共有10个分片。
⑧、相关概念在关系型数据库和ElasticSearch中的对应关系
|-------------|------------------|
| 关系型数据库 | Elasticserch |
| 数据库database | 索引index,支持全文索引 |
| 表table | 类型type |
|-----------|------------------------------------|
| 数据行row | 文档document。但不需要固定结构,不同文档可以具有不同字段集合 |
| 数据列cloumn | 字段field |
| 模式schema | 映像mapping |
三、Logstash
1、简介
Logstash由JRuby语言编写,基于消息(message-based)的简单架构,并运行在java虚拟机(JVM)上。不同于分离的代理端(agent)或主机端(server),Logstash可配置单一的代理端与其他开源软件结合,以实现不同的功能。
①是一款强大的数据处理工具
②可实现数据传输,格式处理,格式化输出
③数据输入,数据加工(如过滤,改写等)以及数据输出
1.1常用插件:
①input:收集源数据(访问日志,错误日志等)
②Filter Plugin:用于过滤日志和格式处理
③output:输出日志
1.2主要组件:
①Shipper(日志收集):负责监控本地日志文件的变化,及时把日志文件的最新内容收集过来。通常,远程代理段(agent)只需要运行这个组件即可。
②Indexer(日志存储):负责接收日志并写入到本地文件
③Broker(日志Hub):负责连接多个Shipper和多个Indexer
④Search and Storage:允许对事件进行搜索和存储
⑤Web Interface:基于Web的展示界面
2、Logstash主机分类
①代理主机(agent host):作为事件的传递者(Shipper),将各种日志数据发送到中心主机,只需运行Logstash代理程序
②中心主机(central host):可运行包括中间转发器(Broker),索引器(Indexer),搜索和存储器(Search and Storage),web界面端(web interface)在内的各个组件,以实现对日志数据的接收,处理和存储。
四、Kibana
Kibana 是用于在 Elasticsearch 中可视化数据的强大工具,可通过基于浏览器的界面轻松搜索,可视化和探索大量数据。
①一个针对Elasticsearch的开源分析及可视化平台
②搜索,查看存储在Elsasticsearch索引中的数据
③通过各种图标进行高级数据分析及展示
1、Kibana主要功能:
①Elasticsearch无缝之集成:
Kibana架构为Elasticsearch定制,可以将任何结构化和非结构化数据加入Elasticsearch索引。Kibana还充分利用了Elasticsearch强大的搜索和分析功能。
②整合数据:
Kibana能够更好地处理海量数据,并据此创建柱形图、折线图、散点图、直方图、饼图和地图。
复杂数据分析。
Kibana提升了Elasticsearch分析能力,能够更加智能地分析数据,执行数学转换并且根据要求对数据切割分块。
③让更对团队成员收益:
强大的数据库可视化接口让各业务岗位都能够从数据集合收益
④接口灵活,分享更容易:
使用Kibana可以更加方便地创建、保存、分享数据,并将可视化数据快速交流。
⑤配置简单:
Kibana的配置和启用非常简单,用户体验非常友好。Kibana自带Web服务器,可以快速启动运行。
⑥可视化多数据源:
Kibana可以非常方便地把来自Logstash、ES-Hadoop、Beats或第三方技术的数据整合到Elasticsearch,支持的第三方技术包括Apache flume、 Fluentd 等。
⑦简单数据导出:
Kibana可以方便地导出感兴趣的数据,与其它数据集合并融合后快速建模分析,发现新结果。
五、部署ELK日志分析系统
1、环境配置
|----------|--------|---------|-----------------|----------------------|
| 服务器 | 配置 | 主机名 | ip地址 | 主要软件 |
| node1 节点 | 2C/4G | node1 | 192.168.170.113 | ElasticSearch、Kibana |
|-----------|-------|--------|-----------------|-----------------|
| node2 节点 | 2C/4G | node2 | 192.168.170.114 | ElasticSearch |
| apache 节点 | / | apache | 192.168.170.111 | Logstash、Apache |
2、关闭防火墙以及核心防护系统
systemctl stop firewalld && systemctl disable firewalld
setenforce 0
ntpdate ntp.aliyun.com
3、Elasticsearch集群部署(需要部署两个节点)
[root@localhost ~]# hostnamectl set-hostname node1
[root@localhost ~]# bash
[root@node1 ~]# echo "192.168.170.113 node1" >> /etc/hosts
[root@node1 ~]# echo "192.168.170.114 node2" >> /etc/hosts
[root@node1 ~]# java -version #不建议使用 openjdk
# rpm 安装 jdk (方法一)
cd /opt
#将软件包传至该目录下
rpm -ivh jdk-8u201-linux-x64.rpm
vim /etc/profile.d/java.sh
export JAVA_HOME=/usr/java/jdk1.8.0_201-amd64
export CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar
export PATH=$JAVA_HOME/bin:$PATH
#注释:
1.输出定义java的工作目录
2.输出指定java所需的类文件
3.输出重新定义环境变量,$PATH一定要放在$JAVA_HOME的后面,让系统先读取到工作目录中的版本信息
source /etc/profile.d/java.sh
java -version
# rpm 安装 jdk (方法二)
cd /opt
tar zxvf jdk-8u91-linux-x64.tar.gz -C /usr/local
mv /usr/local/jdk1.8.0_91/ /usr/local/jdk
vim /etc/profile
export JAVA_HOME=/usr/local/jdk
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
source /etc/profile
java -version
此时已经有jdk,java环境,可以不做
4、部署Elasticsearch软件
4.1安装elasticsearch-rpm包
[root@node1 ~]# cd /opt
[root@node1 opt]# rz -E
#上传elasticsearch-5.5.0.rpm到/opt目录下
rz waiting to receive.
[root@node1 opt]# rpm -ivh elasticsearch-5.5.0.rpm
4.2加载系统服务
systemctl daemon-reload && systemctl enable elasticsearch.service
4.3修改 elasticsearch 主配置文件
[root@node1 opt]# cp /etc/elasticsearch/elasticsearch.yml /etc/elasticsearch/elasticsearch.yml.bak
#备份配置文件
[root@node1 opt]# vim /etc/elasticsearch/elasticsearch.yml
##17行,取消注释,指定群集名称
cluster.name: my-elk-cluster
##23行,取消注释,指定节点名称(node1节点为node1,node2节点为node2)
node.name: node1
##33行,取消注释,指定数据存放路径
path.data: /data/elk_data
##37行,取消注释,指定日志存放路径
path.logs: /var/log/elasticsearch/
##43行,取消注释,不在启动的时候锁定内存(前端缓存,与IOPS-性能测试方式,每秒读写次数相关)
bootstrap.memory_lock: false
##55行,取消注释,设置监听地址,0.0.0.0代表所有地址
network.host: 0.0.0.0
##59行,取消注释,ES服务的默认监听端口为9200
http.port: 9200
##68行,取消注释,集群发现通过单播实现,指定要发现的节点node1、node2
discovery.zen.ping.unicast.hosts: ["node1", "node2"]
[root@node1 opt]# grep -v "^#" /etc/elasticsearch/elasticsearch.yml
cluster.name: my-elk-cluster
node.name: node1
path.data: /data/elk_data
path.logs: /var/log/elasticsearch/
bootstrap.memory_lock: false
network.host: 0.0.0.0
http.port: 9200
discovery.zen.ping.unicast.hosts: ["node1", "node2"]
-------------------------------------------------------
scp /etc/elasticsearch/elasticsearch.yml root@192.168.223.10:/etc/elasticsearch/elasticsearch.yml
#将配置好的文件用 scp 传至 node2,后续只用去改个节点名字即可
4.4创建数据存放路径并授权
[root@node1 opt]# mkdir -p /data/elk_data
[root@node1 opt]# chown elasticsearch:elasticsearch /data/elk_data/
4.5启动elasticsearch
[root@node1 opt]# systemctl start elasticsearch.service
[root@node1 opt]# netstat -natp | grep 9200 #启动较慢,需等待
tcp6 0 0 :::9200 :::* LISTEN 4216/java
注:必须在解压后的 elasticsearch-head 目录下启动服务,进程会读取该目录下的 gruntfile.js 文件,否则可能启动失败。
4.6查看节点信息
浏览器访问 http://192.168.170.113:9200、http://192.168.170.114:9200 查看节点 node1、node2 的信息
浏览器访问 http://192.168.170.113:9200/_cluster/health?pretty、http://192.168.170.113:9200/_cluster/health?pretty
查看群集的健康情况,可以看到status值为green(绿色),表示节点健康运行
5、安装Elasticsearch-head插件
ES 在 5.0 版本后,插件需要作为独立服务进行安装,需要使用 npm 工具(NodeJS 的包管理工具)安装。安装 Elasticsarch-head 需要提前安装好依赖软件 node 和 phantomjs。
①node是一个基于Chrome V8引擎的JavaScript运行环境
②phantomjs是一个基于 webkit 的 JavaScriptAPI,可以理解为一个隐形的浏览器,任何基于 webkit 浏览器做的事情,它都可以做到。
①编译安装node
[root@node1 ~]# cd /opt
[root@node1 opt]# rz -E
#上传软件包node-v8.2.1.tar.gz到/opt目录
rz waiting to receive.
[root@node1 opt]# yum install -y gcc gcc-c++ make
[root@node1 opt]# tar zxvf node-v8.2.1.tar.gz
[root@node1 opt]# cd node-v8.2.1/
[root@node1 node-v8.2.1]# ./configure
[root@node1 node-v8.2.1]# make -j 4 && make install
#编译时间很长
②安装phantomjs
[root@node1 node-v8.2.1]# cd /opt
[root@node1 opt]# rz -E
#上传软件包phantomjs-2.1.1-linux-x86_64.tar.bz2到/opt目录
rz waiting to receive.
[root@node1 opt]# tar jxvf phantomjs-2.1.1-linux-x86_64.tar.bz2 -C /usr/local/src
[root@node1 opt]# cd /usr/local/src/phantomjs-2.1.1-linux-x86_64/bin
[root@node1 bin]# cp phantomjs /usr/local/bin
③安装Elasticsearch-head数据可视化工具
[root@node1 bin]# cd /opt
[root@node1 opt]# rz -E
#上传软件包elasticsearch-head.tar.gz到/opt目录
rz waiting to receive.
[root@node1 opt]# tar zxvf elasticsearch-head.tar.gz -C /usr/local/src/
[root@node1 opt]# cd /usr/local/src/elasticsearch-head/
[root@node1 elasticsearch-head]# npm install
④修改Elasticsearch主配置文件
[root@node1 elasticsearch-head]# vim /etc/elasticsearch/elasticsearch.yml
##末行添加以下内容
http.cors.enabled: true ##开启跨域访问支持,默认为false
http.cors.allow-origin: "*" ##指定跨域访问允许的域名地址为所有
[root@node1 elasticsearch-head]# systemctl restart elasticsearch.service
[root@node1 elasticsearch-head]# netstat -antp | grep 9200
⑤启动Elasticsearch-head服务
[root@node1 elasticsearch-head]# cd /usr/local/src/elasticsearch-head/
[root@node1 elasticsearch-head]# npm run start &
[1] 71012
> elasticsearch-head@0.0.0 start /usr/local/src/elasticsearch-head
> grunt server
Running "connect:server" (connect) task
Waiting forever...
Started connect web server on http://localhost:9100
^C
[root@node1 elasticsearch-head]# netstat -natp | grep 9100
tcp 0 0 0.0.0.0:9100 0.0.0.0:* LISTEN 71022/grunt
注意:必须在解压后的Elasticsearch-head的目录下启动服务,进程会读取该目录下的gruntfile.js文件,否则可能启动失败。
⑥通过Elasticsearch-head查看es信息
通过浏览器访问 http://192.168.170.113:9100 地址并连接群集。如果看到群集健康值为 green,代表群集很健康。
注意:有的时候显示未连接,这时将 localhost 改成 IP 地址即可
⑦插入索引
通过命令插入一个测试索引,索引为index-demo,类型为test
[root@node1 elasticsearch-head]# curl -X PUT 'localhost:9200/index-demo/test/1?pretty&pretty' -H 'content-Type: application/json' -d '{"user":"zhangsan","mesg":"hello world"}'
{
"_index" : "index-demo",
"_type" : "test",
"_id" : "1",
"_version" : 1,
"result" : "created",
"_shards" : {
"total" : 2,
"successful" : 2,
"failed" : 0
},
"created" : true
}
⑧浏览器查看索引信息
浏览器访问 http://129.168.170.113:9100 查看索引信息,可以看见索引默认被分片为 5 个,并且有一个副本。
点击 **数据浏览**,会发现在 node1 上创建的索引为 index-demo,类型为 test 的相关信息。
5、ELK-Logstash部署(在Apache节点上操作)
Logstash 一般部署在需要监控其日志的服务器。在本案例中,Logstash 部署在 Apache 服务器上,用于收集 Apache 的日志信息并发送到 Elasticsearch。
①更改主机名
②安装apache服务(http)
[root@apache ~]# yum install -y httpd
[root@apache ~]# systemctl start httpd && systemctl enable httpd
③安装java环境
cd /opt
tar zxvf jdk-8u201-linux-x64.tar.gz -C /usr/local
mv /usr/local/jdk1.8.0_91/ /usr/local/jdk
vim /etc/profile
export JAVA_HOME=/usr/local/jdk
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
source /etc/profile
java -version
④安装logstash
[root@apache ~]# cd /opt
[root@apache opt]# rz -E #上传安装包 logstash-5.5.1.rpm
[root@apache opt]# rpm -ivh logstash-5.5.1.rpm
[root@apache opt]# systemctl start logstash.service && systemctl enable logstash.service
[root@apache opt]# ln -s /usr/share/logstash/bin/logstash /usr/local/bin/
⑤测试logstash
5.1logstash命令常用选项
|---------------------|-----------------------------------------------------|
| Logstash 命令常用选项 | 说明 |
| -f | 通过这个选项可以指定 Logstash 的配置文件,根据配置文件配置 Logstash 的输入和输出流 |
|----|--------------------------------------------------------------------------------|
| -e | 从命令行中获取,输入、输出后面跟着字符串,该字符串可以被当做 Logstash 的配置(如果是空,则默认使用 stdin 作为输入,stdout 作为输出) |
| -t | 测试配置文件是否正确,然后退出 |
5.2定义输入和输出流
标准输入,输出:输入采用标准输入,输出采用标准输出(类似管道)
[root@apache /opt]# logstash -e 'input { stdin{} } output { stdout{} }'
......
The stdin plugin is now waiting for input:
22:24:31.510 [Api Webserver] INFO logstash.agent - Successfully started Logstash API endpoint {:port=>9600}
www.baidu.com #键入内容(标准输入)
2021-11-19T14:28:36.175Z apache www.baidu.com #输入结果(标准输出)
www.4399.com
2021-11-19T14:29:01.315Z apache www.4399.com
www.baidu.com
2021-11-19T14:29:10.569Z apache www.baidu.com
2021-11-19T14:29:10.569Z apache www.baidu.com
^C22:30:07.071 [SIGINT handler] WARN logstash.runner - SIGINT received. Shutting down the agent.
22:30:07.081 [LogStash::Runner] WARN logstash.agent - stopping pipeline {:id=>"main"}
rubydebug输出使:用rubydebug输出详细格式显示,sodec为一种编码器
[root@apache /opt]# logstash -e 'input { stdin{} } output { stdout{ codec=>rubydebug } }'
......
The stdin plugin is now waiting for input:
22:37:46.417 [Api Webserver] INFO logstash.agent - Successfully started Logstash API endpoint {:port=>9600}
www.test.com #输入内容
{ #输出内容
"@timestamp" => 2021-11-19T14:38:03.535Z,
"@version" => "1",
"host" => "apache",
"message" => "www.test.com"
}
^C22:38:35.333 [SIGINT handler] WARN logstash.runner - SIGINT received. Shutting down the agent.
22:38:35.343 [LogStash::Runner] WARN logstash.agent - stopping pipeline {:id=>"main"}
输出到es:使用logstash将
[root@apache opt]# logstash -e 'input { stdin{} } output { elasticsearch { hosts=>["192.168.170.113:9200"] } }'
······
The stdin plugin is now waiting for input:
22:40:57.485 [Api Webserver] INFO logstash.agent - Successfully started Logstash API endpoint {:port=>9600}
www.test.com #键入内容(标准输出)
结果不在标准输出显示,而是发送到es,可浏览器访问http://192.168.170.113:9100查看索引和数据
⑥定义logstash配置文件
在每个部分中,也可以指定多个访问方式。
例如:若要指定两个日志来源文件,则格式如下:
input {
file { path =>"/var/log/messages" type =>"syslog"}
file { path =>"/var/log/httpd/access.log" type =>"apache"}
}
修改logstash配置文件,让其收集系统日志/var/log/messages,并将其输出到es中
[root@apache opt]# chmod o+r /var/log/messages
#赋予读的权限,让 Logstash 可以获取到该文件的内容
[root@apache opt]# vim /etc/logstash/conf.d/system.conf
##该文件需自行创建,文件名可自定义
input {
file{
path =>"/var/log/messages"
##指定要收集的日志的位置
type =>"system"
##自定义日志类型标识
start_position =>"beginning"
##表示从开始处收集
}
}
output {
elasticsearch{
##输出到ES
hosts =>["192.168.223.9:9200", "192.168.223.10:9200"]
##指定ES服务器的地址和端口,为避免单机故障,建议写全
index =>"system-%{+YYYY.MM.dd}"
##指定输出到ES的索引格式
}
}
[root@apache opt]# systemctl restart logstash.service
⑦访问测试
浏览器访问http://192.168.170.113:9100来查看索引信息
6、ELK-Klibana部署(在node1上操作)
①安装Kibana
[root@node1 elasticsearch-head]# cd /opt
[root@node1 opt]# rz -E #上传软件包 kibana-5.5.1-x86_64.rpm
[root@node1 opt]# rpm -ivh kibana-5.5.1-x86_64.rpm
②设置kibana的主配置文件
[root@node1 opt]# cp /etc/kibana/kibana.yml /etc/kibana/kibana.yml.bak
#备份配置文件
[root@node1 opt]# vim /etc/kibana/kibana.yml
##2行,取消注释,kibana服务的默认监听端口为5601
server.port: 5601
##7行,取消注释,设置kibana的监听地址,0.0.0.0代表所有地址
server.host: "0.0.0.0"
##21行,取消注释,设置和ES建立连接的地址和端口
elasticsearch.url: "http://192.168.170.113:9200"
##30行,取消注释,设置在ES中添加.kibana索引
kibana.index: ".kibana"
③启动kibana服务
[root@node1 opt]# systemctl start kibana.service && systemctl enable kibana.service
[root@node1 opt]# netstat -natp | grep 5601
tcp 0 0 0.0.0.0:5601 0.0.0.0:* LISTEN 82765/node
④验证kibana
浏览器访问 http://192.168.170.113:5601
第一次登录需要添加一个 ES 索引
点击 create 创建
索引添加完成后,点击 Discover 按钮可查看图表信息及日志信息
数据展示可以分类显示,例如:在 Available Fileds 中的 host
⑤将apache服务器的日志(访问的、错误的)添加到es并通过kibana显示apache服务器
[root@apache opt]# vim /etc/logstash/conf.d/apache_log.conf
input {
file{
path => "/etc/httpd/logs/access_log"
type => "access"
start_position => "beginning"
}
file{
path => "/etc/httpd/logs/error_log"
type => "error"
start_position => "beginning"
}
}
output {
if [type] == "access" {
elasticsearch {
hosts => ["192.168.170.113:9200", "192.168.170.114:9200"]
index => "apache_access-%{+YYYY.MM.dd}"
}
}
if [type] == "error" {
elasticsearch {
hosts => ["192.168.170.113:9200", "192.168.170.114:9200"]
index => "apache_error-%{+YYYY.MM.dd}"
}
}
}
[root@apache opt]# cd /etc/logstash/conf.d
[root@apache conf.d]# /usr/share/logstash/bin/logstash -f apache_log.conf
······
23:42:13.199 [Api Webserver] INFO logstash.agent - Successfully started Logstash API endpoint {:port=>9601}
⑥浏览器访问
浏览器访问 http://192.168.170.113:9100 查看索引是否创建
可能你只看到了 apache-error,那是因为 access 需要访问 192.168.170.111 页面才能生成
浏览器访问 http://192.168.170.113:5601 登录 kibana,添加 apache_access-* 和 apache_error-* 索引,查看日志信息
六、ELFK(Filebeat+ELK)
1、Filebeat的作用
①由于logstash会大量占用系统的内存资源,一般我们会使用filebeat替换logstash收集日志的功能,组成ELFK架构。
②或用fluentd替代logstash组成EFK(elasticsearch/fluentd/kibana),由于fluentd是由Go语言开发的,一般在K8s环境中使用的比较多。
2、ELFK工作流程
①filebeat将日志收集后交给logstash处理
②logstash进行过滤,格式化等操作,满足过滤条件的数据将发送给ES
③ES对数据进行分片存储,并提供索引功能
④Kibana对数据进行图像化的web展示,并提供索引接口
七、ELFK的部署
1、环境配置
|----------|--------|---------|-----------------|----------------------|
| 服务器 | 配置 | 主机名 | ip地址 | 主要软件部署 |
| node1 节点 | 2C/4G | node1 | 192.168.170.113 | ElasticSearch、Kibana |
|-----------|-------|--------|-----------------|-----------------|
| node2 节点 | 2C/4G | node2 | 192.168.170.114 | ElasticSearch |
| apache 节点 | / | apache | 192.168.170.111 | Logstash、Apache |
|-------------|---|----------|-----------------|----------|
| filebeat 节点 | / | filebeat | 192.168.170.115 | Filebeat |
就是在 ELK的服务配置的基础上,增加一台filebeat服务器,其余不变。
2、服务器环境
[root@localhost ~]# hostnamectl set-hostname filebeat
[root@localhost ~]# su
[root@filebeat ~]# systemctl stop firewalld && systemctl disable firewalld
[root@filebeat ~]# setenforce 0
3、安装filebeat(这里是下载的rpm安装包,所以步骤不一致)
#wget https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-6.2.4-linux-x86_64.tar.gz
#wget http://101.34.22.188/ELK/filebeat-5.5.1-linux-x86_64.tar.gz -P /opt
[root@filebeat ~]# wget http://101.34.22.188/ELK/filebeat-6.2.4-linux-x86_64.tar.gz -P /opt
[root@filebeat ~]# cd /opt
[root@filebeat opt]# tar zxvf filebeat-6.2.4-linux-x86_64.tar.gz
[root@filebeat opt]# mv filebeat-6.2.4-linux-x86_64 /usr/local/filebeat
4、修改filebeat主配置文件
[root@filebeat opt]# cd /usr/local/filebeat/
[root@filebeat filebeat]# cp filebeat.yml filebeat.yml.bak
[root@filebeat filebeat]# vim filebeat.yml
filebeat.prospectors:
##21行,指定log类型,从日志文件中读取消息
- type: log
##24行,开启日志收集功能,默认为false
enabled: true
##28行,指定监控的日志文件
- /var/log/*.log
##29行,添加收集/var/log/messages
- /var/log/messages
##31行,添加以下内容,注意格式
fields:
service_name: filebeat
log_type: log
service_id: 192.168.170.115
#-------------------------- Elasticsearch output ------------------------------
该区域内容全部注释
#----------------------------- Logstash output --------------------------------
##157行,取消注释
output.logstash:
##159行,取消注释,指定logstash的IP和端口号
hosts: ["192.168.170.111:5044"]
[root@filebeat filebeat]# ./filebeat -e -c filebeat.yml
#启动filebeat,-e记录到stderr并禁用syslog /文件输出,-c指定配置文件
5、在logstash组件所在节点(apache节点)上新建一个logstash配置文件
[root@apache ~]# cd /etc/logstash/conf.d/
[root@apache conf.d]# vim logstash.conf
input {
beats {
port => "5044"
}
}
output {
elasticsearch {
hosts => ["192.168.170.113:9200"]
index => "%{[fields][service_name]}-%{+YYYY.MM.dd}"
}
stdout {
codec => rubydebug
}
}
#启动 logstash
logstash -f logstash.conf
八、总结-ELK以及ELFK的排错思路
1、filebeat排查
第一步:排查filebeat上的配置文件有没有写错,filebeat的配置文件是yml文件,一定要注意格式。
第二步:查看filebeat上能否telnet通logstash上的5044端口,若ping不通则要查看防火墙和filebeat的配置文件是否指向错误,或者在logstash加载filebeat配置文件时即执行 logstash -f logstash.conf时查看弹出的日志中是否有connection fail或者no route等字样,此2个错误表示防火墙或者5044端口与filebeat不通
2、logstash排查
第一步:首先在加载配置文件是查看是否与filebeat成功建立连接,若不成功检查端口5044和防火墙selinux等是否关闭。
第二步:查看logstash的日志文件tail -f -n 50 /var/log/logstash/logstash-plain.log是否有output到ES的字样,连接成功截图如下。若没有output则检查filebeat或logstash自身是否成功采集数据,主要查看配置文件和端口防火墙问题
3、ES、kibana问题
第一步:若kibana侧不能创建索引,则需要在ES上查看是否有对应名称的索引,命令如下
curl -X GET "192.168.30.11:9200/_cat/indices/?v"
#使用时将ip和端口换为自己的ES端口,若索引过多可直接加管道符使用grep过滤名称
第二步:若ES上没有数据,则需要去排查logstash上是否将数据创数过来,但ES上有索引但是kibana创建索引成功之后日志显示no fesults found。则需要调整一下获取的时间,或者访问以下服务产生的一些日记即可。