filebeat到kafka示例

docker run -d \

--name=filebeat_7.14_0 \ #filebeat名称

--user=root \

--volume="/data/filebeat/filebeat.yml:/usr/share/filebeat/filebeat.yml" \ #映射filebeat.yml配置

--volume="/data/filebeat/log:/usr/share/filebeat/log" \ #映射filebeat日志

--volume="/data/filebeat/data:/usr/share/filebeat/data" \ #映射filebeat数据

--volume="/data/log:/path/to/host/log" \ #映射主机的宿日志路径、很重要

docker.elastic.co/beats/filebeat:7.14.0 #filebeat版本

/data/filebeat:

root@xx filebeat\]# cat filebeat.yml filebeat.inputs: - type: log enabled: true paths: - /path/to/host/log/net/zb/10.1.1.1\* #真实宿主机路径是/data/log/net/zb/10.1.1.1\*的日志 fields: device_model: "test" kafka_topic: "测试-topic" #卡卡夫卡 topic #filebeat.config.modules: # path: ${path.config}/modules.d/\*.yml # reload.enabled: false #setup.template.settings: # index.number_of_shards: 1 #setup.template.enabled: true #setup.template.fields: fields.yml #setup.template.overwrite: true processors: - drop_fields: fields: \['agent', 'ecs', 'beat', 'input_type', 'tags', 'count', '@version', 'log', 'offset', 'type', 'host'

ignore_missing: false

output.kafka:

enabled: true

hosts: ["10.10.10.10:9092"] #输出到kafka中,写kafka的IP

topic: "%{[fields.kafka_topic]}"

compression: gzip

max_message_bytes: 1000000

python3测试有没有数据:

-*- coding: utf-8 -*-

import sys

import json

from kafka import KafkaConsumer #pip3 install kafka-python

for msg in KafkaConsumer('测试-topic',bootstrap_servers=['10.10.10.10:9092']):

jsonData = msg.value.decode('utf-8')

info = json.loads(jsonData)

print(info)

print(len("cmdb-crm-CRMkehuguanli-prd"))

相关推荐
不要天天开心4 分钟前
Kafka与Spark-Streaming:大数据处理的黄金搭档
kafka·scala
小生凡一41 分钟前
腾讯二面:TCC分布式事务 | 图解TCC|用Go语言实现一个TCC
开发语言·分布式·golang
Leaf吧1 小时前
分布式定时任务(xxl-job)
java·分布式
青灯文案13 小时前
RabbitMQ 四种交换机(Direct、Topic、Fanout、Headers)详解
分布式·rabbitmq·ruby
煤烦恼6 小时前
kafka整合flume与DStream转换
分布式·kafka
快乐点吧6 小时前
启动命令汇总(Redis / Kafka / Flume / Spark)
redis·kafka·flume
小马爱打代码17 小时前
SpringBoot原生实现分布式MapReduce计算
spring boot·分布式·mapreduce
南客先生17 小时前
互联网大厂Java面试:RocketMQ、RabbitMQ与Kafka的深度解析
java·面试·kafka·rabbitmq·rocketmq·消息中间件
悻运17 小时前
如何配置Spark
大数据·分布式·spark
懒惰的橘猫17 小时前
Spark集群搭建之Yarn模式
大数据·分布式·spark