flume采集netcat数据到kafka指定主题

在主节点使用Flume采集实时数据生成器25001端口的socket数据(实时数据生成器脚本为主节点/data_log目录下的gen_ds_data_to_socket脚本,该脚本为Master节点本地部署且使用socket传输),将数据存入到Kafka的Topic中(Topic名称为ods_mall_log,分区数为2,ZK关于Kafka的信息在其/kafka节点),使用Kafka自带的消费者消费ods_mall_log(Topic)中的数据,查看Topic中的前1条数据的结果,

Flume配置

bash 复制代码
a1.sources=r1
a1.channels=c1
a1.sinks=k1

a1.sources.r1.type=netcat
a1.sources.r1.bind=0.0.0.0
a1.sources.r1.port=8087

a1.sinks.k1.type=org.apache.flume.sink.kafka.KafkaSink
a1.sinks.k1.kafka.topic=ods_mall_log
a1.sinks.k1.kafka.bootstrap.servers=master:9092


a1.channels.c1.type=memory

a1.sinks.k1.channel=c1
a1.sources.r1.channels=c1

kafka 消费数据

bash 复制代码
 kafka-console-consumer.sh --bootstrap-server master:9092  --topic ods_mall_log  --from-beginning --max-messages 1
相关推荐
Lx35219 分钟前
Hadoop容错机制深度解析:保障作业稳定运行
大数据·hadoop
程序消消乐4 小时前
Kafka 入门指南:从 0 到 1 构建你的 Kafka 知识基础入门体系
分布式·kafka
智能化咨询4 小时前
Kafka架构:构建高吞吐量分布式消息系统的艺术——进阶优化与行业实践
分布式·架构·kafka
Chasing__Dreams4 小时前
kafka--基础知识点--5.2--最多一次、至少一次、精确一次
分布式·kafka
T06205145 小时前
工具变量-5G试点城市DID数据(2014-2025年
大数据
向往鹰的翱翔5 小时前
BKY莱德因:5大黑科技逆转时光
大数据·人工智能·科技·生活·健康医疗
鸿乃江边鸟6 小时前
向量化和列式存储
大数据·sql·向量化
IT毕设梦工厂7 小时前
大数据毕业设计选题推荐-基于大数据的客户购物订单数据分析与可视化系统-Hadoop-Spark-数据可视化-BigData
大数据·hadoop·数据分析·spark·毕业设计·源码·bigdata
java水泥工7 小时前
基于Echarts+HTML5可视化数据大屏展示-白茶大数据溯源平台V2
大数据·echarts·html5