单机部署ELK + Filebeat 收集应用日志

目录

  • 前言
  • 一、ELK是什么?
  • [二、系统环境(CentOS 7)(2C4G的机器。。。)](#二、系统环境(CentOS 7)(2C4G的机器。。。))
  • 三、安装步骤
    • [3.1 安装ElasticSearch](#3.1 安装ElasticSearch)
      • [3.1.1 解压到/usr/local](#3.1.1 解压到/usr/local)
      • [3.1.2 修改jvm堆配置(可选,测试服务器内存低)](#3.1.2 修改jvm堆配置(可选,测试服务器内存低))
      • [3.1.3 修改elasticsearch.yml](#3.1.3 修改elasticsearch.yml)
      • [3.1.4 创建es用户](#3.1.4 创建es用户)
      • [3.1.5 赋予es操作权限](#3.1.5 赋予es操作权限)
      • [3.1.6 万事俱备](#3.1.6 万事俱备)
      • [3.1.7 启动问题清单](#3.1.7 启动问题清单)
      • [3.1.8 启动成功](#3.1.8 启动成功)
    • [3.2 安装Kibana](#3.2 安装Kibana)
      • [3.2.1 解压到/usr/local,并赋予用户es权限](#3.2.1 解压到/usr/local,并赋予用户es权限)
      • [3.2.2 修改kibana.yml配置](#3.2.2 修改kibana.yml配置)
      • [3.2.3 关闭ssl配置](#3.2.3 关闭ssl配置)
      • [3.2.4 使用es用户启动](#3.2.4 使用es用户启动)
      • [3.2.5 启动成功、测试](#3.2.5 启动成功、测试)
    • [3.3 Logstash安装](#3.3 Logstash安装)
      • [3.3.1 解压到/usr/local](#3.3.1 解压到/usr/local)
      • [3.3.2 测试配置](#3.3.2 测试配置)
      • [3.3.3 多应用如何推送](#3.3.3 多应用如何推送)
      • [3.3.3 关闭logstash](#3.3.3 关闭logstash)
      • [3.3.4 错误收集](#3.3.4 错误收集)
    • [3.4 Filebeat安装](#3.4 Filebeat安装)
      • [3.4.1 解压(后续在各服务器下安装,把对应日志推送到logstash或者直接推给ES即可)](#3.4.1 解压(后续在各服务器下安装,把对应日志推送到logstash或者直接推给ES即可))
      • [3.4.2 新增测试配置](#3.4.2 新增测试配置)
      • [3.4.3 关闭Filebeat](#3.4.3 关闭Filebeat)
      • [3.4.4 收尾工作](#3.4.4 收尾工作)
  • 四、其他操作
    • [4.1 获取所有索引](#4.1 获取所有索引)
    • [4.2 删除索引](#4.2 删除索引)

前言

单机部署ELK + Filebeat 收集应用日志。


一、ELK是什么?

ELK 是一个开源的数据分析和日志管理解决方案,全称为 Elasticsearch, Logstash, Kibana。ELK Stack 主要用于收集、管理和分析日志数据,帮助用户理解和洞察大型数据集。以下是各个组件的功能概述:

  • Elasticsearch:这是一个基于 Lucene 的全文搜索引擎和分布式索引引擎,用于存储、管理和搜索大量数据。它提供了一个用于查询和分析数据的 RESTful API,并利用其强大的搜索和分析功能,帮助用户处理和理解大规模数据集。
  • Logstash:这是一个强大的数据处理工具,用于实时地收集、解析、过滤和转换日志数据。Logstash 可以从各种源收集数据,包括文件、网络流、数据库、API 调用等,并通过一系列插件进行过滤、转换和格式化,以便更容易地处理和分析数据。
  • Kibana:这是一个用于管理和可视化 Elasticsearch 数据的 Web 界面。Kibana 提供了几种方式来查看和探索数据,包括可视化图表、地图、时间序列图和搜索功能。它可以帮助用户快速提取洞察,提供了数据探索、分析和报告的界面。

Filebeat 是 Elastic Stack(ELK)中的一个组件,用于轻量级的日志文件收集和转发。它能够实时监控指定的日志文件,并将其发送到 Elasticsearch 或 Logstash 进行处理和分析。

二、系统环境(CentOS 7)(2C4G的机器。。。)

bash 复制代码
cat /etc/os-release
bash 复制代码
cat /etc/centos-release

三、安装步骤

安装的方式很多,这里提供的是下载包的方式,上传到服务器里,解压改配置再后台启动。

3.1 安装ElasticSearch

ElasticSearch 8.0以上,和其他低版本最大的区别就是,默认开启安全防护。kibana访问时需要token访问。

首次启动Elasticsearch时,默认情况下会启用并配置安全功能。以下安全配置将自动进行:

启用身份验证和授权,并为弹性内置超级用户生成密码。

为传输层和HTTP层生成TLS的证书和密钥,并使用这些密钥和证书启用和配置TLS。

为Kibana生成一个注册令牌,有效期为30分钟。

开发文档: https://www.elastic.co/guide/en/elasticsearch/reference/8.14/index.html

3.1.1 解压到/usr/local

c 复制代码
tar -zxvf elasticsearch-8.14.3-linux-x86_64.tar.gz -C /usr/local

3.1.2 修改jvm堆配置(可选,测试服务器内存低)

bash 复制代码
vim /usr/local/elasticsearch-8.14.3/config/jvm.options

修改配置

c 复制代码
-Xms512m
-Xmx512m

3.1.3 修改elasticsearch.yml

bash 复制代码
vim /usr/local/elasticsearch-8.14.3/config/elasticsearch.yml

修改配置

c 复制代码
# 集群名称
cluster.name: my-application
# 节点名称
node.name: node-1
# 指定访问主机 设置成0.0.0.0可以被任何机器访问
network.host: 0.0.0.0
http.port: 9200
discovery.seed_hosts: ["127.0.0.1"]
cluster.initial_master_nodes: ["node-1"]

# 关闭安全配置(这里为了后面配置少些,安全性低)
xpack.security.enabled: false
xpack.security.enrollment.enabled: false
# Enable encryption for HTTP API client connections, such as Kibana, Logstash, and Agents
xpack.security.http.ssl:
  enabled: false
# Enable encryption and mutual authentication between cluster nodes
xpack.security.transport.ssl:
  enabled: false

3.1.4 创建es用户

不可使用root用户直接启动elasticsearch,需要创建一个用户来启动ES。

c 复制代码
java.lang.RuntimeException: can not run elasticsearch as root
        at org.elasticsearch.bootstrap.Elasticsearch.initializeNatives(Elasticsearch.java:286) ~[elasticsearch-8.14.3.jar:?]
        at org.elasticsearch.bootstrap.Elasticsearch.initPhase2(Elasticsearch.java:169) ~[elasticsearch-8.14.3.jar:?]
        at org.elasticsearch.bootstrap.Elasticsearch.main(Elasticsearch.java:74) ~[elasticsearch-8.14.3.jar:?]
bash 复制代码
# 创建用户es
groupadd es
useradd -g es es
passwd es

3.1.5 赋予es操作权限

bash 复制代码
chown -R es:es /usr/local/elasticsearch-8.14.3/

3.1.6 万事俱备

bash 复制代码
cd /usr/local/elasticsearch-8.14.3/bin/
bash 复制代码
# 切换es用户
su es
# 启动(第一次建议这个,可以看看输出)
./elasticsearch
# 后台启动
nohup ./elasticsearch &
# 不需要nohup.out文件 执行命令
nohup ./elasticsearch > /dev/null 2>&1 &
bash 复制代码
# 查看启动的进程
ps -ef | grep elasticsearch

3.1.7 启动问题清单

bash 复制代码
bootstrap check failure [1] of [1]: 
max virtual memory areas vm.max_map_count [65530] is too low, 
increase to at least [262144];
bash 复制代码
# 切换到root用户:
su root

sysctl -w vm.max_map_count=262144

# 查看结果:
sysctl -a|grep vm.max_map_count

# 切换用户,再次启动
su es
# 进入到bin目录,启动命令
./elasticsearch

目前就碰到这问题,待大家补充。

3.1.8 启动成功

bash 复制代码
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
✅ Elasticsearch security features have been automatically configured!
✅ Authentication is enabled and cluster connections are encrypted.

ℹ️  Password for the elastic user (reset with `bin/elasticsearch-reset-password -u elastic`):
  Q1dedsRMdwW3TlCurM6S

ℹ️  HTTP CA certificate SHA-256 fingerprint:
  a760b450bc408134a581a7dae6f10c934d12f03490464bbe6bf03f1f8a29f1ee

ℹ️  Configure Kibana to use this cluster:
• Run Kibana and click the configuration link in the terminal when Kibana starts.
• Copy the following enrollment token and paste it into Kibana in your browser (valid for the next 30 minutes):
  eyJ2ZXIiOiI4LjE0LjAiLCJhZHIiOlsiMTAuMC4xMi4yOjkyMDAiXSwiZmdyIjoiYTc2MGI0NTBiYzQwODEzNGE1ODFhN2RhZTZmMTBjOTM0ZDEyZjAzNDkwNDY0YmJlNmJmMDNmMWY4YTI5ZjFlZSIsImtleSI6IkQxVm1CcEVCUUoyYWhtcGZFQjFHOnBRSFg3YTU3VDlXQXVTTUZDYlp3UncifQ==

ℹ️ Configure other nodes to join this cluster:
• Copy the following enrollment token and start new Elasticsearch nodes with `bin/elasticsearch --enrollment-token <token>` (valid for the next 30 minutes):
  eyJ2ZXIiOiI4LjE0LjAiLCJhZHIiOlsiMTAuMC4xMi4yOjkyMDAiXSwiZmdyIjoiYTc2MGI0NTBiYzQwODEzNGE1ODFhN2RhZTZmMTBjOTM0ZDEyZjAzNDkwNDY0YmJlNmJmMDNmMWY4YTI5ZjFlZSIsImtleSI6IkRWVm1CcEVCUUoyYWhtcGZFQjA4Onl2ODNUM29VVEhXcWhXNi1Ub3BjYncifQ==

  If you're running in Docker, copy the enrollment token and run:
  `docker run -e "ENROLLMENT_TOKEN=<token>" docker.elastic.co/elasticsearch/elasticsearch:8.14.3`
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━

查看ElasticSearch是否启动成功。

bash 复制代码
curl 127.0.0.1:9200
bash 复制代码
{
  "name" : "node-1",
  "cluster_name" : "my-application",
  "cluster_uuid" : "VlzgSvECRRqg8iFbmzB1Tw",
  "version" : {
    "number" : "8.14.3",
    "build_flavor" : "default",
    "build_type" : "tar",
    "build_hash" : "d55f984299e0e88dee72ebd8255f7ff130859ad0",
    "build_date" : "2024-07-07T22:04:49.882652950Z",
    "build_snapshot" : false,
    "lucene_version" : "9.10.0",
    "minimum_wire_compatibility_version" : "7.17.0",
    "minimum_index_compatibility_version" : "7.0.0"
  },
  "tagline" : "You Know, for Search"
}

3.2 安装Kibana

3.2.1 解压到/usr/local,并赋予用户es权限

c 复制代码
tar -zxvf kibana-8.14.3-linux-x86_64.tar.gz -C /usr/local

chown -R es:es /usr/local/kibana-8.14.3/

3.2.2 修改kibana.yml配置

bash 复制代码
vim /usr/local/kibana-8.14.3/config/kibana.yml
bash 复制代码
server.port: 5601
server.host: "0.0.0.0"
elasticsearch.hosts: ["http://localhost:9200"]

3.2.3 关闭ssl配置

bash 复制代码
vim /usr/local/kibana-8.14.3/config/node.options
bash 复制代码
# 注释掉
## --openssl-legacy-provider

3.2.4 使用es用户启动

bash 复制代码
# kibana也不能使用root启动
su es

nohup ./kibana &
bash 复制代码
# 1、启动时的进程号可以直接kill命令停止
bash 复制代码
# 2、或者使用,找到进程号再kill
ps aux | grep /src/cli/dist 

3.2.5 启动成功、测试

3.3 Logstash安装

官方文档:https://www.elastic.co/guide/en/logstash/current/first-event.html

Logstash提供了一个灵活的数据处理平台,可以用于过滤、解析、聚合、转换数据,并且支持多种插件来实现复杂的处理逻辑。这包括但不限于时间戳解析、用户自定义的脚本、日志格式转换、字段重命名等。

原理:

Logstash 事件处理管道有三个阶段:输入 → 过滤器 → 输出。

3.3.1 解压到/usr/local

c 复制代码
tar -zxvf logstash-8.14.3-linux-x86_64.tar.gz -C /usr/local

3.3.2 测试配置

配置测试文件:进入logstash-8.14.3文件夹下进行配置

bash 复制代码
vim /usr/local/logstash-8.14.3/config/privacy_phone.logstash.conf

# logstash配置文件: privacy_phone.logstash.conf
input {
  stdin {
    id => "stdin_input"
  }
}

filter {
  grok {
    match => { "message" => "(?<phone_number>\d{11})" }
  }

  if [phone_number] {
    mutate {
      add_field => { "masked_phone_number" => "%{phone_number}" }
    }
    ruby {
      code => "
        event.set('masked_phone_number', event.get('masked_phone_number').gsub(/(\d{3})\d{4}(\d{4})/, '\\1****\\2'))
      "
    }
    mutate {
      remove_field => ["phone_number"]
    }
  }
}
#输出到ElasticSearch
output {
  elasticsearch {
    hosts => ["http://127.0.0.1:9200"]
    # 推送到 ElasticSearch的哪个索引
    index => "testphone-%{+YYYY.MM.dd}"
    #user => "elastic"
    #password => "changeme"
  }
}

#输出到控制台
#output {
#  stdout {
#    codec => rubydebug
#  }
#}
bash 复制代码
#进入bin目录执行
./logstash -f /usr/local/logstash-8.14.3/config/privacy_phone.logstash.conf

启动成功后,输入文本。

进入kibana : http://ip地址:5601/

这块例子有点生硬,但主旨就是logstash是可以处理数据的。

【开发文档写的很详细,无非就是数据输入,经过过滤器处理,再输出数据的流程】

3.3.3 多应用如何推送

bash 复制代码
vim /usr/local/logstash-8.14.3/config/multiple.logstash.conf

input {
  beats {
    port => 5044
  }
}

output {
  if [fields][appname] == "app1" {
    elasticsearch {
      hosts => ["localhost:9200"]
      index => "app1-%{+YYYY.MM.dd}"
    }
  }
}

input {
  beats {
    port => 5045
  }
}

output {
  if [fields][appname] == "app2" {
    elasticsearch {
      hosts => ["localhost:9200"]
      index => "app2-%{+YYYY.MM.dd}"
    }
  }
}
bash 复制代码
#进入bin目录执行
nohup ./logstash -f /usr/local/logstash-8.14.3/config/multiple.logstash.conf & 

3.3.3 关闭logstash

bash 复制代码
ps -ef|grep logstash

kill 进程号

3.3.4 错误收集

bash 复制代码
org.jruby.exceptions.SystemExit: (SystemExit) exit

提示找不到文件、修改路径即可。

3.4 Filebeat安装

3.4.1 解压(后续在各服务器下安装,把对应日志推送到logstash或者直接推给ES即可)

bash 复制代码
tar -zxvf filebeat-8.14.3-linux-x86_64.tar.gz

# 进入文件夹
cd filebeat-8.14.3-linux-x86_64

3.4.2 新增测试配置

bash 复制代码
# 新增app1_filebeat.yml
vim app1_filebeat.yml

filebeat.inputs:
- type: log
  enabled: true
  paths:
    - /opt/elk/logs1/*.log
  fields:
    appname: app1 # 标志

output.logstash:
  hosts: ["127.0.0.1:5044"]
bash 复制代码
# 按配置文件启动
nohup ./filebeat -e -c app1_filebeat.yml &

# 模拟日志生成
mkdir /opt/elk/logs1/

cd /opt/elk/logs1/

vim info.2024-08-02.log

# 插入以下数据模拟正常日志
我是日志文件11111111111111111111111111111啊

filebeat控制台输出。

kibana再对应创建下就能看见数据了。

(app2也一样,filebeat复制一份改下配置,appname:改成app2,filebeat推到logstash就会被推到对应的index)

3.4.3 关闭Filebeat

bash 复制代码
ps -ef | grep filebeat

kill 进程号

3.4.4 收尾工作

关于java的一些错误日志,按以上配置收集到es中时,因为是逐行收集,看着就难以排查问题,例如

bash 复制代码
[2024-08-02 09:16:00.305] [xxl-job, executor ExecutorRegistryThread] ERROR c.x.job.core.util.XxlJobRemotingUtil : Connection refused (Connection refused)
java.net.ConnectException: Connection refused (Connection refused)
	at java.net.PlainSocketImpl.socketConnect(Native Method)
	at java.net.AbstractPlainSocketImpl.doConnect(AbstractPlainSocketImpl.java:350)
	at java.net.AbstractPlainSocketImpl.connectToAddress(AbstractPlainSocketImpl.java:206)
	at java.net.AbstractPlainSocketImpl.connect(AbstractPlainSocketImpl.java:188)
	at java.net.SocksSocketImpl.connect(SocksSocketImpl.java:392)
	at java.net.Socket.connect(Socket.java:607)
	at sun.net.NetworkClient.doConnect(NetworkClient.java:175)
	at sun.net.www.http.HttpClient.openServer(HttpClient.java:463)
	at sun.net.www.http.HttpClient.openServer(HttpClient.java:558)
	at sun.net.www.http.HttpClient.<init>(HttpClient.java:242)
	at sun.net.www.http.HttpClient.New(HttpClient.java:339)
	at sun.net.www.http.HttpClient.New(HttpClient.java:357)
	at sun.net.www.protocol.http.HttpURLConnection.getNewHttpClient(HttpURLConnection.java:1226)
	at sun.net.www.protocol.http.HttpURLConnection.plainConnect0(HttpURLConnection.java:1162)
	at sun.net.www.protocol.http.HttpURLConnection.plainConnect(HttpURLConnection.java:1056)
	at sun.net.www.protocol.http.HttpURLConnection.connect(HttpURLConnection.java:990)
	at com.xxl.job.core.util.XxlJobRemotingUtil.postBody(XxlJobRemotingUtil.java:99)
	at com.xxl.job.core.biz.client.AdminBizClient.registry(AdminBizClient.java:42)
	at com.xxl.job.core.thread.ExecutorRegistryThread$1.run(ExecutorRegistryThread.java:48)
	at java.lang.Thread.run(Thread.java:748)

在kibana中显示为:

修改filebeat配置

bash 复制代码
vim app1_filebeat.yml
bash 复制代码
filebeat.inputs:
- input_type: log
  enabled: true
  paths:           
    - /opt/elk/logs1/*.log
  encoding: utf-8
  fields: 
    appname: app1 # logstash可以用此字段判断
  multiline:
    pattern: '^\d{4}-\d{1,2}-\d{1,2}' # 匹配以 YYYY-MM-DD 开头的行 
    negate: true # 是否匹配 pattern 的情况
    match: after # 将其追加到上一行之后 pattern + negate + match 组合成一条语意为: 如果匹配 YYYY-MM-DD HH:mm:ss 开头的行,则将其合并到当前行的上一行
    max_lines: 200 # 最多匹配多少行,如果超出最大行数,则丢弃多余的行(默认500)
    timeout: 6s # 一次合并事件的超时时间,默认为 5s
output.logstash:
  hosts: ["127.0.0.1:5044"]

在日志文件中插入以上报错信息,再次查看。

四、其他操作

4.1 获取所有索引

bash 复制代码
GET /_cat/indices?v

4.2 删除索引

bash 复制代码
DELETE /app1-2024.08.02
相关推荐
冰 河40 分钟前
《Nginx核心技术》第16章:实现Nginx的高可用负载均衡
运维·nginx·程序员·负载均衡·高可用
人工智障调包侠4 小时前
Linux 目录介绍
linux·运维·服务器
Java小白白同学6 小时前
Linux 硬盘扩容操作手册
linux·运维·服务器
大白菜和MySQL6 小时前
keepalived和lvs高可用集群
linux·运维·lvs
学习向前冲7 小时前
高效诊断Linux性能问题
linux·运维·服务器
wd5205217 小时前
常用环境部署(十七)——Docker安装pritunl+openvpn
运维·docker·容器
威迪斯特7 小时前
视频监控接入平台web客户端有时无法登录,有时打开实时视频出现黑屏的问题解决
linux·运维·服务器·视频监控·df命令·磁盘空间·接入平台
数据安全小盾9 小时前
2024办公文件怎么加密?常用的8款加密软件排行榜
运维·服务器·网络·安全·web安全
素年槿夏9 小时前
600 条最强 Linux 命令总结
linux·运维·服务器
花生糖@10 小时前
使用批处理脚本自动化启动Unreal Engine项目
运维·游戏·自动化·虚幻·bat