flume安装配置

文章目录

  • flume安装配置
    • 1.下载
    • 2.安装
    • 3.案例
      • [3.1.安装 netcat 工具](#3.1.安装 netcat 工具)
      • [3.2.创建 Flume Agent](#3.2.创建 Flume Agent)
      • [3.3.开启 flume](#3.3.开启 flume)
      • [3.4.使用 netcat 工具](#3.4.使用 netcat 工具)

flume安装配置

1.下载

https://archive.apache.org/dist/flume/1.7.0/apache-flume-1.7.0-bin.tar.gz

2.安装

shell 复制代码
# 解压
tar -zxvf apache-flume-1.7.0-bin.tar.gz 

#配置flume-java环境
cd apache-flume-1.7.0-bin/conf
mv flume-env.sh.template flume-env.sh
vim flume-env.sh 
export JAVA_HOME=/opt/sorftware/jdk1.8.0_221

#配置flume环境
vim ~/.bashrc 
export FLUME_HOME=/opt/sorftware/apache-flume-1.7.0-bin/
export PATH=$FLUME_HOME/bin:$PATH

3.案例

使用 Flume 监听一个端口,收集该端口数据,并打印到控制台。

3.1.安装 netcat 工具

判断 44444 端口是否被占用

复制代码
sudo yum  install -y  nc
sudo netstat -tunlp |  grep 44444

3.2.创建 Flume Agent

配置文件 flume-netcat-logger.conf

复制代码
# Name the components on this agent
a1.sources = r1
a1.sinks = k1
a1.channels = c1
 
# Describe/configure the source
a1.sources.r1.type = netcat
a1.sources.r1.bind = localhost
a1.sources.r1.port = 44444
 
# Describe the sink
a1.sinks.k1.type = logger
 
# Use a channel which buffers events in memory
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100
 
# Bind the source and sink to the channel
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1

3.3.开启 flume

监听端口

复制代码
bin/flume-ng agent --conf conf/ --name a1 --conf-file jobtest/nc-flume-logger.conf -Dflume.root.logger=INFO,console

--conf/-c:表示配置文件存储在 conf/目录
--name/-n:表示给 agent 起名为 a1
--conf-file/-f:flume 本次启动读取的配置文件是在 job 文件夹下的 flume-telnet.conf
-Dflume.root.logger=INFO,console :-D 表示 flume 运行时动态修改 flume.root.logger参数属性值,并将控制台日志打印级别设置为 INFO 级别。日志级别包括:log、info、warn、error。

3.4.使用 netcat 工具

向本机的 44444 端口发送内容,在 Flume 监听页面观察接收数据情况

复制代码
nc localhost 44444
相关推荐
君不见,青丝成雪42 分钟前
网关整合验签
大数据·数据结构·docker·微服务·系统架构
茗鹤APS和MES6 小时前
APS高级计划排程:汽车零部件厂生产排产的智慧之选
大数据·制造·精益生产制造·aps高级排程系统
蒙特卡洛的随机游走6 小时前
Spark的persist和cache
大数据·分布式·spark
蒙特卡洛的随机游走6 小时前
Spark 中 distribute by、sort by、cluster by 深度解析
大数据·分布式·spark
梦里不知身是客116 小时前
Spark中的宽窄依赖-宽窄巷子
大数据·分布式·spark
化作星辰7 小时前
java 给鉴权kafka2.7(sasl)发送消息权限异常处理
java·大数据·开发语言·kafka
user_admin_god7 小时前
企业级管理系统的站内信怎么轻量级优雅实现
java·大数据·数据库·spring boot
mengml_smile7 小时前
大数据生态Sql引擎
大数据
isNotNullX11 小时前
怎么用数据仓库来进行数据治理?
大数据·数据库·数据仓库·数据治理
HitpointNetSuite12 小时前
连锁餐饮行业ERP系统如何选择?
大数据·数据库·oracle·netsuite·erp