flume安装配置

文章目录

  • flume安装配置
    • 1.下载
    • 2.安装
    • 3.案例
      • [3.1.安装 netcat 工具](#3.1.安装 netcat 工具)
      • [3.2.创建 Flume Agent](#3.2.创建 Flume Agent)
      • [3.3.开启 flume](#3.3.开启 flume)
      • [3.4.使用 netcat 工具](#3.4.使用 netcat 工具)

flume安装配置

1.下载

https://archive.apache.org/dist/flume/1.7.0/apache-flume-1.7.0-bin.tar.gz

2.安装

shell 复制代码
# 解压
tar -zxvf apache-flume-1.7.0-bin.tar.gz 

#配置flume-java环境
cd apache-flume-1.7.0-bin/conf
mv flume-env.sh.template flume-env.sh
vim flume-env.sh 
export JAVA_HOME=/opt/sorftware/jdk1.8.0_221

#配置flume环境
vim ~/.bashrc 
export FLUME_HOME=/opt/sorftware/apache-flume-1.7.0-bin/
export PATH=$FLUME_HOME/bin:$PATH

3.案例

使用 Flume 监听一个端口,收集该端口数据,并打印到控制台。

3.1.安装 netcat 工具

判断 44444 端口是否被占用

sudo yum  install -y  nc
sudo netstat -tunlp |  grep 44444

3.2.创建 Flume Agent

配置文件 flume-netcat-logger.conf

# Name the components on this agent
a1.sources = r1
a1.sinks = k1
a1.channels = c1
 
# Describe/configure the source
a1.sources.r1.type = netcat
a1.sources.r1.bind = localhost
a1.sources.r1.port = 44444
 
# Describe the sink
a1.sinks.k1.type = logger
 
# Use a channel which buffers events in memory
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100
 
# Bind the source and sink to the channel
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1

3.3.开启 flume

监听端口

bin/flume-ng agent --conf conf/ --name a1 --conf-file jobtest/nc-flume-logger.conf -Dflume.root.logger=INFO,console

--conf/-c:表示配置文件存储在 conf/目录
--name/-n:表示给 agent 起名为 a1
--conf-file/-f:flume 本次启动读取的配置文件是在 job 文件夹下的 flume-telnet.conf
-Dflume.root.logger=INFO,console :-D 表示 flume 运行时动态修改 flume.root.logger参数属性值,并将控制台日志打印级别设置为 INFO 级别。日志级别包括:log、info、warn、error。

3.4.使用 netcat 工具

向本机的 44444 端口发送内容,在 Flume 监听页面观察接收数据情况

nc localhost 44444
相关推荐
码界筑梦坊32 分钟前
基于Flask的京东商品信息可视化分析系统的设计与实现
大数据·python·信息可视化·flask·毕业设计
专注API从业者3 小时前
分布式电商系统中的API网关架构设计
大数据·数据仓库·分布式·架构
viperrrrrrrrrr75 小时前
大数据学习(49) - Flink按键分区状态(Keyed State)
大数据·学习·flink
狮歌~资深攻城狮6 小时前
未来已来:HBase的新功能与发展趋势展望
大数据·wpf·hbase
weixin_307779136 小时前
PySpark实现MERGE INTO的数据合并功能
大数据·python·spark
vx1530278236211 小时前
CDGA|企业数据治理实战:从疏通“信息河”到打造优质“数据湖”
java·大数据·人工智能·cdga·数据治理
AIRIOT12 小时前
AIRIOT智慧消防管理解决方案
大数据
哔哩哔哩技术13 小时前
ClickHouse BSI与字典服务在B站商业化DMP中的应用实践
大数据
想做富婆14 小时前
数仓搭建(hive):DM搭建(数据集市层)
大数据·数仓搭建