filebeat到kafka示例

docker run -d \

--name=filebeat_7.14_0 \ #filebeat名称

--user=root \

--volume="/data/filebeat/filebeat.yml:/usr/share/filebeat/filebeat.yml" \ #映射filebeat.yml配置

--volume="/data/filebeat/log:/usr/share/filebeat/log" \ #映射filebeat日志

--volume="/data/filebeat/data:/usr/share/filebeat/data" \ #映射filebeat数据

--volume="/data/log:/path/to/host/log" \ #映射主机的宿日志路径、很重要

docker.elastic.co/beats/filebeat:7.14.0 #filebeat版本

/data/filebeat:

root@xx filebeat\]# cat filebeat.yml filebeat.inputs: - type: log enabled: true paths: - /path/to/host/log/net/zb/10.1.1.1\* #真实宿主机路径是/data/log/net/zb/10.1.1.1\*的日志 fields: device_model: "test" kafka_topic: "测试-topic" #卡卡夫卡 topic #filebeat.config.modules: # path: ${path.config}/modules.d/\*.yml # reload.enabled: false #setup.template.settings: # index.number_of_shards: 1 #setup.template.enabled: true #setup.template.fields: fields.yml #setup.template.overwrite: true processors: - drop_fields: fields: \['agent', 'ecs', 'beat', 'input_type', 'tags', 'count', '@version', 'log', 'offset', 'type', 'host'

ignore_missing: false

output.kafka:

enabled: true

hosts: ["10.10.10.10:9092"] #输出到kafka中,写kafka的IP

topic: "%{[fields.kafka_topic]}"

compression: gzip

max_message_bytes: 1000000

python3测试有没有数据:

-*- coding: utf-8 -*-

import sys

import json

from kafka import KafkaConsumer #pip3 install kafka-python

for msg in KafkaConsumer('测试-topic',bootstrap_servers=['10.10.10.10:9092']):

jsonData = msg.value.decode('utf-8')

info = json.loads(jsonData)

print(info)

print(len("cmdb-crm-CRMkehuguanli-prd"))

相关推荐
bigdata-rookie13 小时前
Spark 部署模式
大数据·分布式·spark
蒋士峰DBA修行之路14 小时前
实验二十二 GaussDB分布式场景调优
分布式·gaussdb
yumgpkpm16 小时前
数据可视化AI、BI工具,开源适配 Cloudera CMP 7.3(或类 CDP 的 CMP 7.13 平台,如华为鲲鹏 ARM 版)值得推荐?
人工智能·hive·hadoop·信息可视化·kafka·开源·hbase
Zhao·o16 小时前
KafkaMQ采集指标日志
运维·中间件·kafka
青靴18 小时前
轻量级 CI/CD 实战(三):Kafka消费者Docker容器化部署
分布式·docker·kafka
galaxyffang18 小时前
RocketMQ 为什么性能不如 Kafka?
分布式·kafka·rocketmq
sheji341619 小时前
【开题答辩全过程】以 基于Spark的药品库存可视化分析系统为例,包含答辩的问题和答案
大数据·分布式·spark
A尘埃19 小时前
Spark基于内存计算的数据处理
大数据·分布式·spark
2501_9418814020 小时前
ClickHouse OLAP 数据仓库在互联网大规模分析场景下性能优化与查询加速实践经验分享
kafka
渣渣盟20 小时前
Flink分布式文件Sink实战解析
分布式·flink·scala·1024程序员节