使用Apache SeaTunnel高效集成和管理SftpFile数据源

本文为Apache SeaTunnel已经支持的SftpFile Source Connector使用文档,旨在帮助读者理解如何高效地使用SFTP文件源连接器,以便轻松地使用Apache SeaTunnel集成和管理您的SftpFil数据源。

SftpFile 是指通过 SFTP(Secure File Transfer Protocol)协议进行文件操作的对象或组件。在网络编程和数据集成中,SFTPFile 通常用来表示和操作存储在远程 SFTP 服务器上的文件。SFTP 是一种安全的文件传输协议,基于 SSH(Secure Shell)协议,提供了加密的文件传输和远程文件操作功能。

支持的引擎

Spark

Flink

SeaTunnel Zeta

主要特性

描述

从 SFTP 文件服务器读取数据。

支持的数据源信息

使用 SftpFile 连接器,需要以下依赖项。可以通过 install-plugin.sh 下载,也可以从 Maven 中央仓库获取。

数据源 支持的版本 依赖项
SftpFile 通用 下载
  • 提示

如果你使用的是 Spark/Flink,请确保 Spark/Flink 集群已经集成了 Hadoop。Hadoop 2.x 版本已通过测试。

如果使用 SeaTunnel 引擎,安装 SeaTunnel 引擎时会自动集成 Hadoop JAR 包。可以在 ${SEATUNNEL_HOME}/lib 目录下检查这个 JAR 包是否存在。

为了支持更多的文件类型,我们做了一些妥协,所以在内部访问 Sftp 时我们使用了 HDFS 协议,这个连接器需要一些 Hadoop 依赖项,且仅支持 Hadoop 版2.9.X+ 版本。

数据类型映射

文件没有特定的类型列表,我们可以通过在配置中指定模式来指示要将哪个 SeaTunnel 数据类型转换为相应的数据。

SeaTunnel 数据类型
STRING
SHORT
INT
BIGINT
BOOLEAN
DOUBLE
DECIMAL
FLOAT
DATE
TIME
TIMESTAMP
BYTES
ARRAY
MAP

Source选项

名称 类型 必填 默认值 描述
host 字符串 - 目标 SFTP 主机地址
port 整数 - 目标 SFTP 端口号
user 字符串 - 目标 SFTP 用户名
password 字符串 - 目标 SFTP 密码
path 字符串 - 源文件路径
file_format_type 字符串 - 请查看下文的 #file_format_type
file_filter_pattern 字符串 - 用于文件过滤的过滤器模式。
delimiter 字符串 \001 字段分隔符,用于告诉连接器如何在读取文本文件时切割字段。默认 \001,与 Hive 的默认分隔符相同。
parse_partition_from_path 布尔型 true 控制是否从文件路径中解析分区键和值。 例如,如果从路径中读取文件 oss://hadoop-cluster/tmp/seatunnel/parquet/name=tyrantlucifer/age=26 那么文件中的每条记录将添加这两个字段: name age tyrantlucifer 26 提示:不要在模式选项中定义分区字段
date_format 字符串 yyyy-MM-dd 日期类型的格式,用于告诉连接器如何将字符串转换为日期,支持以下格式: yyyy-MM-dd yyyy.MM.dd yyyy/MM/dd,默认 yyyy-MM-dd
datetime_format 字符串 yyyy-MM-dd HH:mm:ss 日期时间类型的格式,用于告诉连接器如何将字符串转换为日期时间,支持以下格式: yyyy-MM-dd HH:mm:ss yyyy.MM.dd HH:mm:ss yyyy/MM/dd HH:mm:ss yyyyMMddHHmmss,默认 yyyy-MM-dd HH:mm:ss
time_format 字符串 HH:mm:ss 时间类型的格式,用于告诉连接器如何将字符串转换为时间,支持以下格式: HH:mm:ss HH:mm:ss.SSS,默认 HH:mm:ss
skip_header_row_number 长整型 0 跳过前几行,仅对 txt 和 csv 文件有效。 例如,设置如下: skip_header_row_number = 2 那么 SeaTunnel 将跳过源文件的前两行。
sheet_name 字符串 - 读取工作簿的工作表名称,仅在文件格式为 Excel 时使用。
schema 配置项 - 请查看下文的 #schema
通用选项 - Source 插件通用参数,请参考 Source通用选项 获取详细信息。

file_format_type [字符串]

支持以下文件类型: text csv parquet orc json excel 如果将文件类型指定为 json,需要配置 Schema 模式选项,向连接器说明如何解析数据为你需要所需的 Row。 例如:上游数据如下:

{"code":  200, "data":  "get success", "success":  true}

也可以将多个数据保存在一个文件中,并通过换行符进行分隔:

{"code":  200, "data":  "get success", "success":  true}
{"code":  300, "data":  "get failed", "success":  false}

需要按照以下方式配置 Schema:

schema {
    fields {
        code = int
        data = string
        success = boolean
    }
}

连接器将生成以下数据:

code data success
200 获取成功 true
如果将文件类型指定为 parquetorc,则无需指定模式选项,连接器可以自动查找上游数据的模式。
如果将文件类型指定为 textcsv,则可以选择是否指定模式信息或不指定。

例如,上游数据如下:

tyrantlucifer#26#male

如果不配置 Schema,Connector 将这样处理上游数据:

如果分配数据模式,则除了 CSV 文件类型外,还应分配选项 delimiter。

内容
tyrantlucifer#26#male
如果配置了数据 Schema,除了CSV文件类型,还需要配置选项分隔符。

需要配置 Schema 和分隔符如下:

delimiter = "#"
schema {
    fields {
        name = string
        age = int
        gender = string 
    }
}

连接器将生成以下数据: | 姓名 | 年龄 | 性别 | |---------------|-----|------| | tyrantlucifer | 26 | 男 |

Schema [配置项]

fields [配置项] 上游数据的 Schema。

如何创建 Sftp 数据同步任务

以下示例演示了如何创建一个数据同步任务,从 Sftp 读取数据并在本地客户端上打印出来:

# 设置要执行的任务的基本配置
env {
  execution.parallelism = 1
  job.mode = "BATCH"
}

# 创建连接到 Sftp 的源
source {
  SftpFile {
    host = "sftp"
    port = 22
    user = seatunnel
    password = pass
    path = "tmp/seatunnel/read/json"
    file_format_type = "json"
    result_table_name = "sftp"
    schema = {
      fields {
        c_map = "map<string, string>"
        c_array = "array<int>"
        c_string = string
        c_boolean = boolean
        c_tinyint = tinyint
        c_smallint = smallint
        c_int = int
        c_bigint = bigint
        c_float = float
        c_double = double
        c_bytes = bytes
        c_date = date
        c_decimal = "decimal(38, 18)"
        c_timestamp = timestamp
        c_row = {
          C_MAP = "map<string, string>"
          C_ARRAY = "array<int>"
          C_STRING = string
          C_BOOLEAN = boolean
          C_TINYINT = tinyint
          C_SMALLINT = smallint
          C_INT = int
          C_BIGINT = bigint
          C_FLOAT = float
          C_DOUBLE = double
          C_BYTES = bytes
          C_DATE = date
          C_DECIMAL = "decimal(38, 18)"
          C_TIMESTAMP = timestamp
        }
      }
    }
  }
}

# 控制台打印读取的 Sftp 数据
sink {
  Console {
    parallelism = 1
  }
}

本文由 白鲸开源科技 提供发布支持!

相关推荐
java1234_小锋几秒前
Elasticsearch中的节点(比如共20个),其中的10个选了一个master,另外10个选了另一个master,怎么办?
大数据·elasticsearch·jenkins
Elastic 中国社区官方博客1 分钟前
Elasticsearch 开放推理 API 增加了对 IBM watsonx.ai Slate 嵌入模型的支持
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索
我的运维人生1 分钟前
Elasticsearch实战应用:构建高效搜索与分析平台
大数据·elasticsearch·jenkins·运维开发·技术共享
大数据编程之光17 分钟前
Flink Standalone集群模式安装部署全攻略
java·大数据·开发语言·面试·flink
B站计算机毕业设计超人19 分钟前
计算机毕业设计SparkStreaming+Kafka旅游推荐系统 旅游景点客流量预测 旅游可视化 旅游大数据 Hive数据仓库 机器学习 深度学习
大数据·数据仓库·hadoop·python·kafka·课程设计·数据可视化
在下不上天2 小时前
Flume日志采集系统的部署,实现flume负载均衡,flume故障恢复
大数据·开发语言·python
智慧化智能化数字化方案2 小时前
华为IPD流程管理体系L1至L5最佳实践-解读
大数据·华为
PersistJiao4 小时前
在 Spark RDD 中,sortBy 和 top 算子的各自适用场景
大数据·spark·top·sortby
2301_811274314 小时前
大数据基于Spring Boot的化妆品推荐系统的设计与实现
大数据·spring boot·后端
Yz98764 小时前
hive的存储格式
大数据·数据库·数据仓库·hive·hadoop·数据库开发