centos7安装Kafka单节点环境部署三-安装Logstash

1、下载Logstash

复制代码
wget https://artifacts.elastic.co/downloads/logstash/logstash-7.17.7-linux-x86_64.tar.gz

2、解压到/usr/local/

复制代码
mkdir -p /usr/local/logstash7.17
tar -zxf logstash-7.17.7-linux-x86_64.tar.gz -C /usr/local/logstash7.17/ --strip-components=1 #--strip-components选项表示从目录级别上去除指定的前缀,以实现更加控制解压的效果

3、logstash数据写到kafka中

复制代码
cd /usr/local/logstash7.17/config/
cp logstash-sample.conf logstash.conf
input{ 
    stdin{ }
}
output{ 
    kafka{ 
        topic_id => "logstash_k"
        bootstrap_servers => "192.168.0.191:9092"  # kafka的地址
        jaas_path => "/usr/local/logstash7.17/config/logstash.conf"
        security_protocol => "SASL_PLAINTEXT"
        sasl_mechanism => "SCRAM-SHA-256"
        codec => "json"
    }
    stdout{ 
        codec => rubydebug
    }
}

4、启动、停止

复制代码
cd /usr/local/logstash7.17
mkdir -p /data/logstash7/
nohup ./bin/logstash -f config/logstash.conf &>> /data/logstash7/logstash-server-`date "+%Y%m%d"`.log & echo $! > /data/logstash7/logstash.pid #启动
cat /data/logstash7/logstash.pid | xargs -I {} kill {} #停止

logstash配置详解

Logstash 是一个强大的日志处理工具,可以用于数据收集,转换和存储。以下是 Logstash 配置文件的基本结构和一个示例配置:

复制代码
# Logstash 配置文件示例
 
# 设置 Logstash 的工作区域
# path 指定了 Logstash 的工作目录
# node.name 是集群中此节点的名称
# cluster.name 是集群的名称
# pipeline.workers 是执行输入和过滤器的工作线程数
# pipeline.batch.size 是每个批次的事件数
# pipeline.batch.delay 是等待批次填满的时间
 
pipeline.workers: 2
pipeline.batch.size: 125
pipeline.batch.delay: 50
 
# 输入配置
# 使用 file 插件监控日志文件的变化
input {
  file {
    path => "/var/log/system.log"
    start_position => "beginning"
  }
}
 
# 过滤器配置
# 使用 grok 插件解析日志格式
filter {
  grok {
    match => { "message" => "%{SYSLOGTIMESTAMP:timestamp} %{DATA:program}(?:\[%{POSINT:pid}\])?: %{GREEDYDATA:message}" }
    add_field => [ "received_at", "%{@timestamp}" ]
    add_field => [ "received_from", "%{host}" ]
  }
}
 
# 输出配置
# 将处理后的事件发送到 Elasticsearch
output {
  elasticsearch {
    hosts => ["localhost:9200"]
    index => "logstash-%{+YYYY.MM.dd}"
  }
}

在这个配置中,我们定义了 Logstash 的工作区域和线程设置,然后配置了一个文件输入来监控系统日志文件的变化。接着,我们使用了 grok 插件来解析日志消息,并添加了两个额外字段。最后,我们配置了 Elasticsearch 作为输出,将数据发送到 Elasticsearch 索引中。

相关推荐
lcw_lance30 分钟前
业务中台-典型技术栈选型(微服务、容器编排、分布式数据库、消息队列、服务监控、低代码等)
数据库·分布式·微服务
End9281 小时前
Spark之搭建Yarn模式
大数据·分布式·spark
尽兴-2 小时前
Lambda架构与Kappa架构对比详解
hadoop·架构·kafka·lambda·kappa
£菜鸟也有梦3 小时前
从0到1上手Kafka:开启分布式消息处理之旅
大数据·kafka·消息队列
jstart千语3 小时前
【消息队列】RabbitMQ基本认识
java·服务器·分布式·rabbitmq
DuGuYiZhao4 小时前
Kafka 解惑
分布式·kafka
漂流瓶6666664 小时前
Spark处理过程-转换算子
大数据·分布式·spark
斯普信专业组4 小时前
Kafka 消费者组进度监控方法解析
分布式·kafka
Dreams°1234 小时前
【Python爬虫 !!!!!!政府招投标数据爬虫项目--医疗实例项目文档(提供源码!!!)!!!学会Python爬虫轻松赚外快】
分布式·爬虫·python·mysql·scikit-learn
在未来等你4 小时前
互联网大厂Java求职面试:电商商品推荐系统中的AI技术应用
java·缓存·kafka·推荐系统·向量数据库·jvm调优·spring ai