PiflowX组件-FileRead

FileRead组件

组件说明

从文件系统读取。

计算引擎

flink

组件分组

file

端口

Inport:默认端口

outport:默认端口

组件属性

名称 展示名称 默认值 允许值 是否必填 描述 例子
path path "" 文件路径。 hdfs://server1:8020/flink/test/text.txt
format format "" Set("json", "csv", "avro", "parquet", "orc", "raw", "debezium-json", "canal-json") 文件系统连接器支持format。 json
monitorInterval monitorInterval "" 设置新文件的监控时间间隔,并且必须设置 > 0 的值。 每个文件都由其路径唯一标识,一旦发现新文件,就会处理一次。 已处理的文件在source的整个生命周期内存储在state中,因此,source的state在checkpoint和savepoint时进行保存。更短的时间间隔意味着文件被更快地发现,但也意味着更频繁地遍历文件系统/对象存储。 如果未设置此配置选项,则提供的路径仅被扫描一次,因此源将是有界的。
tableDefinition TableDefinition "" Flink table定义。
properties PROPERTIES "" 连接器其他配置。

FileRead示例配置

json 复制代码
{
  "flow": {
    "name": "FileReadTest",
    "uuid": "1234",
    "stops": [
      {
        "uuid": "1111",
        "name": "FileRead",
        "bundle": "cn.piflow.bundle.flink.file.FileRead",
        "properties": {
          "path": "src/test/resources/file/user.csv",
          "format": "csv",
          "tableDefinition": "{\"catalogName\":null,\"dbname\":null,\"tableName\":\"\",\"ifNotExists\":true,\"physicalColumnDefinition\":[{\"columnName\":\"name\",\"columnType\":\"STRING\",\"comment\":\"name\"},{\"columnName\":\"age\",\"columnType\":\"INT\"}],\"metadataColumnDefinition\":null,\"computedColumnDefinition\":null,\"watermarkDefinition\":null}",
          "properties": "{'csv.field-delimiter':',','csv.ignore-parse-errors':'true'}"
        }
      },
      {
        "uuid": "2222",
        "name": "ShowData1",
        "bundle": "cn.piflow.bundle.flink.common.ShowData",
        "properties": {
          "showNumber": "100"
        }
      }
    ],
    "paths": [
      {
        "from": "FileRead",
        "outport": "",
        "inport": "",
        "to": "ShowData1"
      }
    ]
  }
}
示例说明

本示例演示了通过FileRead从本地文件user.csv中读取内容,然后使用ShoData组件将数据打印在控制台。

演示DEMO

PiflowX组件-FileRead

相关推荐
君不见,青丝成雪20 小时前
网关整合验签
大数据·数据结构·docker·微服务·系统架构
尘世壹俗人1 天前
hadoop节点扩容和缩容操作流程
hadoop
BD_Marathon1 天前
【Hive】复杂数据类型
数据仓库·hive·hadoop
茗鹤APS和MES1 天前
APS高级计划排程:汽车零部件厂生产排产的智慧之选
大数据·制造·精益生产制造·aps高级排程系统
蒙特卡洛的随机游走1 天前
Spark的persist和cache
大数据·分布式·spark
蒙特卡洛的随机游走1 天前
Spark 中 distribute by、sort by、cluster by 深度解析
大数据·分布式·spark
梦里不知身是客111 天前
Spark中的宽窄依赖-宽窄巷子
大数据·分布式·spark
化作星辰1 天前
java 给鉴权kafka2.7(sasl)发送消息权限异常处理
java·大数据·开发语言·kafka
q***31891 天前
深入解析HDFS:定义、架构、原理、应用场景及常用命令
hadoop·hdfs·架构
user_admin_god1 天前
企业级管理系统的站内信怎么轻量级优雅实现
java·大数据·数据库·spring boot