大数据环境(单机版) Flume传输数据到Kafka

文章目录


前言

flume监控指定目录,传输数据到kafka


一、准备

复制代码
flume-1.10.1
kafka_2.11-2.4.1
zookeeper-3.4.13

二、安装

使用命令 tar -zxf 分别解压到指定目录

三、配置环境变量

bash 复制代码
vi ~/.bash_profile
bash 复制代码
export FLUME_HOME=/home/hadoop/install/flume-1.10.1
export PATH=$FLUME_HOME/bin:$PATH

export ZOOKEEPER_HOME=/home/hadoop/install/zookeeper-3.4.13
export PATH=$ZOOKEEPER_HOME/bin:$PATH

export KAFKA_HOME=/home/hadoop/install/kafka_2.11-2.4.1
export PATH=$PATH:$KAFKA_HOME/bin
bash 复制代码
# 使配置生效
source ~/.bash_profile

四、修改配置

4.1、kafka配置

修改zk地址

bash 复制代码
vi $KAFKA_HOME/config/server.properties

修改zk的连接地址

zookeeper.connect=localhost:2181

4.2、Flume配置

拷贝配置

bash 复制代码
cp $FLUME_HOME/config/flume-conf.properties.template $FLUME_HOME/config/flume-conf.properties

编辑配置

bash 复制代码
vi $FLUME_HOME/config/flume-conf.properties

增加如下配置

bash 复制代码
# 增加如下配置
a1.sources = r1
a1.channels = c1

a1.sources.r1.type = TAILDIR
a1.sources.r1.filegroups = f1
# 这个目录是 flume监控的目录
a1.sources.r1.filegroups.f1 = /home/hadoop/install/temp/flume/applog/log/app.*
a1.sources.r1.positionFile = /home/hadoop/install/temp/flume/json/taildir_position.json

a1.channels.c1.type = org.apache.flume.channel.kafka.KafkaChannel
a1.channels.c1.kafka.bootstrap.servers = localhost:9092
# kafka的主题
a1.channels.c1.kafka.topic = topic_log
# 不把数据解析为 Flume的Event,kafka原样接收
a1.channels.c1.parseAsFlumeEvent = false

a1.sources.r1.channels = c1

五、启动程序

5.1、启动zk

bash 复制代码
zkServer.sh start

5.2、启动kafka

bash 复制代码
sh kafka-server-start.sh /home/hadoop/install/kafka_2.11-2.4.1/config/server.properties &

5.3、启动flume

bash 复制代码
flume-ng agent -c conf -f conf/flume-netcat-conf.properties -n a1 -Dflume.root.logger=INFO,console &

六、测试

6.1、启动一个kafka终端,用来消费消息

bash 复制代码
kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic topic_log

6.2、写入日志

bash 复制代码
echo {"a":"b1"} >> /home/hadoop/install/temp/flume/applog/log/app.log
echo {"a":"b2"} >> /home/hadoop/install/temp/flume/applog/log/app.log

其他

软件下载

相关推荐
面向Google编程4 小时前
从零学习Kafka:数据存储
后端·kafka
Jackeyzhe5 小时前
从零学习Kafka:数据存储
kafka
Coder_Boy_7 小时前
技术让开发更轻松的底层矛盾
java·大数据·数据库·人工智能·深度学习
2501_944934737 小时前
高职大数据技术专业,CDA和Python认证优先考哪个?
大数据·开发语言·python
九河云8 小时前
5秒开服,你的应用部署还卡在“加载中”吗?
大数据·人工智能·安全·机器学习·华为云
Gain_chance8 小时前
36-学习笔记尚硅谷数仓搭建-DWS层数据装载脚本
大数据·数据仓库·笔记·学习
每日新鲜事9 小时前
热销复盘:招商林屿缦岛203套售罄背后的客户逻辑分析
大数据·人工智能
AI架构全栈开发实战笔记10 小时前
Eureka 在大数据环境中的性能优化技巧
大数据·ai·eureka·性能优化
AI架构全栈开发实战笔记10 小时前
Eureka 对大数据领域服务依赖关系的梳理
大数据·ai·云原生·eureka
自挂东南枝�10 小时前
政企舆情大数据服务平台的“全域洞察中枢”
大数据