大数据环境(单机版) Flume传输数据到Kafka

文章目录


前言

flume监控指定目录,传输数据到kafka


一、准备

flume-1.10.1
kafka_2.11-2.4.1
zookeeper-3.4.13

二、安装

使用命令 tar -zxf 分别解压到指定目录

三、配置环境变量

bash 复制代码
vi ~/.bash_profile
bash 复制代码
export FLUME_HOME=/home/hadoop/install/flume-1.10.1
export PATH=$FLUME_HOME/bin:$PATH

export ZOOKEEPER_HOME=/home/hadoop/install/zookeeper-3.4.13
export PATH=$ZOOKEEPER_HOME/bin:$PATH

export KAFKA_HOME=/home/hadoop/install/kafka_2.11-2.4.1
export PATH=$PATH:$KAFKA_HOME/bin
bash 复制代码
# 使配置生效
source ~/.bash_profile

四、修改配置

4.1、kafka配置

修改zk地址

bash 复制代码
vi $KAFKA_HOME/config/server.properties

修改zk的连接地址

zookeeper.connect=localhost:2181

4.2、Flume配置

拷贝配置

bash 复制代码
cp $FLUME_HOME/config/flume-conf.properties.template $FLUME_HOME/config/flume-conf.properties

编辑配置

bash 复制代码
vi $FLUME_HOME/config/flume-conf.properties

增加如下配置

bash 复制代码
# 增加如下配置
a1.sources = r1
a1.channels = c1

a1.sources.r1.type = TAILDIR
a1.sources.r1.filegroups = f1
# 这个目录是 flume监控的目录
a1.sources.r1.filegroups.f1 = /home/hadoop/install/temp/flume/applog/log/app.*
a1.sources.r1.positionFile = /home/hadoop/install/temp/flume/json/taildir_position.json

a1.channels.c1.type = org.apache.flume.channel.kafka.KafkaChannel
a1.channels.c1.kafka.bootstrap.servers = localhost:9092
# kafka的主题
a1.channels.c1.kafka.topic = topic_log
# 不把数据解析为 Flume的Event,kafka原样接收
a1.channels.c1.parseAsFlumeEvent = false

a1.sources.r1.channels = c1

五、启动程序

5.1、启动zk

bash 复制代码
zkServer.sh start

5.2、启动kafka

bash 复制代码
sh kafka-server-start.sh /home/hadoop/install/kafka_2.11-2.4.1/config/server.properties &

5.3、启动flume

bash 复制代码
flume-ng agent -c conf -f conf/flume-netcat-conf.properties -n a1 -Dflume.root.logger=INFO,console &

六、测试

6.1、启动一个kafka终端,用来消费消息

bash 复制代码
kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic topic_log

6.2、写入日志

bash 复制代码
echo {"a":"b1"} >> /home/hadoop/install/temp/flume/applog/log/app.log
echo {"a":"b2"} >> /home/hadoop/install/temp/flume/applog/log/app.log

其他

软件下载

相关推荐
Elastic 中国社区官方博客38 分钟前
通过计费集成和警报监控 Elasticsearch Service 成本
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索
Elastic 中国社区官方博客38 分钟前
用于管理 Elasticsearch Serverless 项目的 AI Agent
大数据·人工智能·elasticsearch·搜索引擎·云原生·serverless·全文检索
爱编程的王小美1 小时前
从0学习Spark
大数据·学习·spark
小技工丨1 小时前
Hadoop之01:HDFS分布式文件系统
大数据·hadoop·hdfs
树莓集团2 小时前
海南自贸港的数字先锋:树莓集团的战略布局解析
大数据·人工智能·物联网·百度·创业创新
caihuayuan54 小时前
Golang的代码注释规范指南
java·大数据·spring boot·后端·课程设计
种豆走天下4 小时前
Kafka、RabbitMQ、RocketMQ的区别
kafka·rabbitmq·rocketmq
viperrrrrrrrrr75 小时前
大数据学习(53)-Hive与Impala
大数据·hive·学习·impala
guanpinkeji6 小时前
剧本杀门店预约小程序:市场发展下的刚需
大数据·小程序·软件开发·小程序开发·剧本杀·剧本杀门店预约系统
郑州拽牛科技6 小时前
家政保洁维修行业有没有必要做小程序?
大数据·微信小程序·小程序·系统架构·开源软件