Flume详解

Source

AVRO Source

  1. AVRO Source接收被AVRO序列化之后的数据,结合AVRO Sink,可以实现复杂的流动模型

  2. 案例

    1. 编辑文件

      cd /opt/software/flume-1.11.0/data/
      vim avrosource.properties
      

      在文件中添加

      a1.sources = s1
      a1.channels = c1
      a1.sinks = k1
      ​
      # 配置AVRO Source
      # 类型必须是avro
      a1.sources.s1.type = avro
      # 监听的主机
      a1.sources.s1.bind = 0.0.0.0
      # 监听的端口号
      a1.sources.s1.port = 6666
      ​
      a1.channels.c1.type = memory
      ​
      a1.sinks.k1.type = logger
      ​
      a1.sources.s1.channels = c1
      a1.sinks.k1.channel = c1
      
    2. 启动

      flume-ng agent -n a1 -c $FLUME_HOME/conf -f avrosource.properties -Dflume.root.logger=INFO,console
      
    3. 在新窗口中启动AVRO客户端

      flume-ng avro-client -H hadoop01 -p 6666 -F a.txt
      

Spooling Directory Source

  1. 监听指定的目录,如果目录中产生了新的文件,那么自动的将新文件中的内容收集起来

  2. 默认情况下,这个文件如果被收集了,那么文件的后缀就是.COMPLETED

  3. 案例

    1. 创建目录

      mkdir /opt/flume_data
      
    2. 编辑文件

      vim spooldirsource.properties
      

      在文件中添加

      a1.sources = s1
      a1.channels = c1
      a1.sinks = k1
      ​
      # 配置Spooling Directory Source
      # 类型必须是spooldir
      a1.sources.s1.type = spooldir
      # 监听的目录
      a1.sources.s1.spoolDir = /opt/flume_data
      # 被收集过的文件后缀
      # 利用这条规则,可以过滤掉一部分不需要收集的文件
      a1.sources.s1.fileSuffix = .finished
      ​
      a1.channels.c1.type = memory
      ​
      a1.sinks.k1.type = logger
      ​
      a1.sources.s1.channels = c1
      a1.sinks.k1.channel = c1
      
    3. 执行

      flume-ng agent -n a1 -c $FLUME_HOME/conf -f spooldirsource.properties -Dflume.root.logger=INFO,console
      

Taildir Source

  1. 可以用于监听一个或者一组文件,如果被监听的文件中添加了新数据,那么新添的数据会被自动收集

  2. Exec Source需要通过指定tail -F命令才能监听指定文件,Spooling Directory Source监听指定的目录,并不能确定文件中是否新添了数据

  3. 不同于Exec Source的地方在于,Taildir Source不需要指定命令,还可以监控一类文件,且Taildir Source通过记录偏移量实现断点续传效果

  4. 偏移量通过属性positionFile来决定,默认是~/.flume/taildir_position.json

  5. 需要注意的是,Taildir Source不支持在Windows中使用

  6. 案例:监听flume_data目录下所有的log和txt文件,如果文件被添加新数据,那么自动收集

    1. 编辑文件

      vim taildirsource.properties
      
    2. 在文件中添加

      a1.sources = s1
      a1.channels = c1
      a1.sinks = k1
      ​
      # 配置Taildir Source
      # 类型必须是TAILDIR
      a1.sources.s1.type = TAILDIR
      # 监听的一组文件的组名
      a1.sources.s1.filegroups = f1 f2
      # 文件组中的要监听的文件
      a1.sources.s1.filegroups.f1 = /opt/flume_data/.*log.*
      a1.sources.s1.filegroups.f2 = /opt/flume_data/.*txt.*
      # 偏移量的存储位置
      a1.sources.s1.positionFile = /opt/flume_data/taildir_position.json
      ​
      a1.channels.c1.type = memory
      ​
      a1.sinks.k1.type = logger
      ​
      a1.sources.s1.channels = c1
      a1.sinks.k1.channel = c1
      
    3. 执行

      flume-ng agent -n a1 -c $FLUME_HOME/conf -f taildirsource.properties -Dflume.root.logger=INFO,console
      

NetCat TCP Source

  1. Netcat TCP Source监听TCP请求,在使用的时候需要监听指定的主机和端口,从这个指定主机的指定端口来接收TCP请求,并且将TCP请求内容作为日志来进行收集

  2. 默认情况下,每一条数据大小不能超过512B,可以通过参数max-line-length来修改

Sequence Generator Source

  1. 序列产生器,从0开始递增到totalEvents,默认情况下totalEvents的值Long.MAX_VALUE

  2. 实际过程中,会利用这个Source测试流动模型是否搭建成功

  3. 案例

    a1.sources = s1
    a1.channels = c1
    a1.sinks = k1
    ​
    # 配置Sequence Generator Source
    # 类型必须是seq
    a1.sources.s1.type = seq
    # 最大值
    a1.sources.s1.totalEvents = 100
    ​
    a1.channels.c1.type = memory
    ​
    a1.sinks.k1.type = logger
    ​
    a1.sources.s1.channels = c1
    a1.sinks.k1.channel = c1
    

HTTP Source

  1. 接收HTTP请求,并且将请求内容作为日志进行收集

  2. 只能接收GET和POST请求,其中GET请求接收只能用于实验,实际过程中使用HTTP Source来接收POST请求

  3. 案例

    1. 在文件中添加

      a1.sources = s1
      a1.channels = c1
      a1.sinks = k1
      ​
      # 配置HTTP Source
      # 类型必须是http
      a1.sources.s1.type = http
      # 监听端口
      a1.sources.s1.port = 8888
      ​
      a1.channels.c1.type = memory
      ​
      a1.sinks.k1.type = logger
      ​
      a1.sources.s1.channels = c1
      a1.sinks.k1.channel = c1
      
    2. 启动Flume

    3. 发送POST请求

      curl -X POST -d '[{"headers":{"class":"flume"},"body":"welcome~~~"}]' http://hadoop01:8888
      

Custom Source

  1. Flume支持用户自定义Source。Flume针对Source提供了顶级接口Source,但是实际过程中,并不是实现Source接口,而是实现子接口之一:

    1. EventDrivenSource:事件驱动Source,本身是一个被动型Source,需要自己定义线程来获取数据以及封装数据

    2. PollableSource:拉取Source,本身是一个主动型Source,提供了线程来获取数据,只需要考虑数据怎么封装即可

  2. 由于在自定义Source的时候,还需要考虑获取格式文件中的参数值,所以还需要实现Configurable接口

  3. 实际过程中,考虑到要覆盖的方法比较多,所以继承AbstractSource

自定义EventDrivenSource
  1. 导入pom文件后,定义类继承AbstractSource,实现EventDrivenSourceConfigurable接口

  2. 打成jar包,上传到Flume安装目录的lib目录下

    cd /opt/software/flume-1.11.0/lib/
    rz
    
  3. 回到格式文件目录下,编辑文件

    cd /opt/software/flume-1.11.0/data/
    vim authdrivensource.properties
    

    在文件中添加

    a1.sources = s1
    a1.channels = c1
    a1.sinks = k1
    ​
    # 配置自定义EventDrivenSource
    # 类型必须是类的全路径名
    a1.sources.s1.type = com.fesco.source.AuthDrivenSource
    # 起始值
    a1.sources.s1.start = 10
    # 结束值
    a1.sources.s1.end = 100
    # 步长
    a1.sources.s1.step = 5
    ​
    a1.channels.c1.type = memory
    ​
    a1.sinks.k1.type = logger
    ​
    a1.sources.s1.channels = c1
    a1.sinks.k1.channel = c1
    
  4. 启动Flume

自定义PollableSource
  1. 定义一个类继承AbstractSource,实现PollableSourceConfigurable接口

  2. 打成jar包,上传到lib目录下

    cd ../lib
    rz
    
  3. 回到格式文件目录下,编辑文件

    cd ../data/
    vim authpollablesource.properties
    

    在文件中添加

    a1.sources = s1
    a1.channels = c1
    a1.sinks = k1
    ​
    # 配置自定义PollableSource
    # 类型必须是类的全路径名
    a1.sources.s1.type = com.fesco.source.AuthPollableSource
    # 起始值
    a1.sources.s1.min = 10
    # 结束值
    a1.sources.s1.max = 1000
    # 步长
    a1.sources.s1.step = 5
    ​
    a1.channels.c1.type = memory
    ​
    a1.sinks.k1.type = logger
    ​
    a1.sources.s1.channels = c1
    a1.sinks.k1.channel = c1
    
  4. 启动flume

相关推荐
EasyCVR1 小时前
私有化部署视频平台EasyCVR宇视设备视频平台如何构建视频联网平台及升级视频转码业务?
大数据·网络·音视频·h.265
hummhumm1 小时前
第 22 章 - Go语言 测试与基准测试
java·大数据·开发语言·前端·python·golang·log4j
科技象限2 小时前
电脑禁用U盘的四种简单方法(电脑怎么阻止u盘使用)
大数据·网络·电脑
天冬忘忧2 小时前
Kafka 生产者全面解析:从基础原理到高级实践
大数据·分布式·kafka
青云交3 小时前
大数据新视界 -- Hive 数据仓库:构建高效数据存储的基石(下)(2/ 30)
大数据·数据仓库·hive·数据安全·数据分区·数据桶·大数据存储
zmd-zk3 小时前
flink学习(2)——wordcount案例
大数据·开发语言·学习·flink
电子手信3 小时前
知识中台在多语言客户中的应用
大数据·人工智能·自然语言处理·数据挖掘·知识图谱
隔着天花板看星星3 小时前
Kafka-Consumer理论知识
大数据·分布式·中间件·kafka
holywangle3 小时前
解决Flink读取kafka主题数据无报错无数据打印的重大发现(问题已解决)
大数据·flink·kafka
隔着天花板看星星3 小时前
Kafka-副本分配策略
大数据·分布式·中间件·kafka