1.修改文件/opt/app/elk/logstash-7.5.1/config.d/config1.conf,在input下添加kafka采集配置
#192.168.128.130:9103:kafka地址
#topics:主题
kafka {
bootstrap_servers => ["192.168.128.130:9103"]
group_id => "logstash"
topics => ["demo"]
consumer_threads => 1
decorate_events => true
add_field => {"from" => "demo"}
}

修改完配置文件后,不需要手动重启,因为之前在启动logstash时,配置了以下内容

kafka消息发送端发送消息
#进入kafka容器
docker exec -it kafka sh
#进入到/opt/kafka/bin目录
cd /opt/kafka/bin
#启动消息发送端
./kafka-console-producer.sh --broker-list localhost:9092 --topic demo

logstash控制台会输出以下内容

kibana服务中查询出es的mylog索引中会采集到kafka的信息
