CSV Format Flink / PyFlink 读写 CSV 的正确姿势(含 Schema 高级配置)

1、依赖引入

Java/Scala 工程需要加 Flink CSV 依赖:

xml 复制代码
<dependency>
  <groupId>org.apache.flink</groupId>
  <artifactId>flink-csv</artifactId>
  <version>2.2.0</version>
</dependency>

PyFlink 用户一般可以直接在作业里使用(前提是集群环境里对应的 jar 能被加载;如果你是在远程集群跑,仍然需要按你前面"依赖管理"章节的方式把 jar 加入 pipeline.jarsenv.add_jars())。

2、Java:快速读取 POJO(自动推导 Schema)

最省事的方式:让 Jackson 根据 POJO 字段推导 CSV schema:

java 复制代码
CsvReaderFormat<SomePojo> csvFormat = CsvReaderFormat.forPojo(SomePojo.class);
FileSource<SomePojo> source =
    FileSource.forRecordStreamFormat(csvFormat, Path.fromLocalFile(...)).build();

注意:CSV 列顺序必须和 POJO 字段顺序一致。必要时加:

java 复制代码
@JsonPropertyOrder({"field1","field2", ...})

否则列对不上会出现解析错位(最常见的"字段都不为空但值都错"的隐性 bug)。

3、Java:高级配置(自定义分隔符、禁用引号等)

需要精细控制时,用 forSchema(...) 自己生成 CsvSchema,例如把分隔符改成 |,并禁用 quote:

java 复制代码
Function<CsvMapper, CsvSchema> schemaGenerator = mapper ->
    mapper.schemaFor(CityPojo.class)
          .withoutQuoteChar()
          .withColumnSeparator('|');

CsvReaderFormat<CityPojo> csvFormat =
    CsvReaderFormat.forSchema(() -> new CsvMapper(), schemaGenerator, TypeInformation.of(CityPojo.class));

FileSource<CityPojo> source =
    FileSource.forRecordStreamFormat(csvFormat, Path.fromLocalFile(...)).build();

对应 CSV:

复制代码
Berlin|52.5167|13.3833|Germany|DE|Berlin|primary|3644826
San Francisco|37.7562|-122.443|United States|US|California||3592294
Beijing|39.905|116.3914|China|CN|Beijing|primary|19433000

更复杂的类型也能做(比如数组列),通过 CsvSchema.ColumnType.ARRAY 并指定数组元素分隔符:

java 复制代码
CsvReaderFormat<ComplexPojo> csvFormat =
    CsvReaderFormat.forSchema(
        CsvSchema.builder()
            .addColumn(new CsvSchema.Column(0, "id", CsvSchema.ColumnType.NUMBER))
            .addColumn(new CsvSchema.Column(4, "array", CsvSchema.ColumnType.ARRAY)
                .withArrayElementSeparator("#"))
            .build(),
        TypeInformation.of(ComplexPojo.class));

4、PyFlink:手动定义 CSV Schema(输出为 Row)

PyFlink 里通常自己建 schema,每一列映射为 Row 字段:

python 复制代码
from pyflink.common.watermark_strategy import WatermarkStrategy
from pyflink.table import DataTypes
from pyflink.datastream import StreamExecutionEnvironment
from pyflink.datastream.connectors.file_system import FileSource
from pyflink.formats.csv import CsvReaderFormat, CsvSchema  # 具体 import 以你环境包结构为准

env = StreamExecutionEnvironment.get_execution_environment()

schema = CsvSchema.builder() \
    .add_number_column('id', number_type=DataTypes.BIGINT()) \
    .add_array_column('array', separator='#', element_type=DataTypes.INT()) \
    .set_column_separator(',') \
    .build()

source = FileSource.for_record_stream_format(
    CsvReaderFormat.for_schema(schema),
    CSV_FILE_PATH
).build()

ds = env.from_source(source, WatermarkStrategy.no_watermarks(), 'csv-source')

# ds 的 record 类型是 Row(具名字段 + 复合类型)
# Types.ROW_NAMED(['id', 'array'], [Types.LONG(), Types.LIST(Types.INT())])

对应 CSV:

复制代码
0,1#2#3
1,
2,1

补一个实战提醒:如果某列可能为空(比如上面的 array),你后续算子处理时要把 None/空数组的分支写好,否则很容易在 map/flat_map 里触发类型错误。

5、PyFlink:写 CSV(Bulk Format)

写 CSV 通常用 CsvBulkWriters 生成 BulkWriterFactory,再配合 FileSink.for_bulk_format(...)

python 复制代码
from pyflink.table import DataTypes
from pyflink.datastream.connectors.file_system import FileSink
from pyflink.formats.csv import CsvBulkWriters, CsvSchema  # 具体 import 以你环境包结构为准

schema = CsvSchema.builder() \
    .add_number_column('id', number_type=DataTypes.BIGINT()) \
    .add_array_column('array', separator='#', element_type=DataTypes.INT()) \
    .set_column_separator(',') \
    .build()

sink = FileSink.for_bulk_format(
    OUTPUT_DIR,
    CsvBulkWriters.for_schema(schema)
).build()

ds.sink_to(sink)

6、运行模式:Batch / Streaming 都可用

CsvReaderFormat 类似 TextLineInputFormat,既可用于批也可用于流(持续监控目录等),具体取决于你用的 Source/RuntimeMode 以及文件系统是否支持持续发现。

相关推荐
小陈phd2 小时前
langGraph从入门到精通(三)——基于LangGraph的智能问答系统开发:Python单代理架构实战
开发语言·python·架构
轻竹办公PPT2 小时前
AI 自动生成 PPT 实用吗?深度体验后的客观评价
人工智能·python·powerpoint
Leo.yuan2 小时前
一次讲清五种常见BOM类型:工程BOM、制造BOM、计划BOM、成本BOM、服务BOM
大数据·产品运营·制造·bom
星火开发设计2 小时前
深入浅出HDFS:分布式文件系统核心原理与实践解析
大数据·数据库·hadoop·学习·hdfs·分布式数据库·知识
Java后端的Ai之路2 小时前
【Python教程02】-列表和元组
服务器·数据库·python·列表·元组
好好学仿真2 小时前
探索超表面智能设计:当FDTD仿真遇上Python优化
python·联合仿真·机器学习算法·光学·fdtd·超表面逆向设计·超表面器件设计
沈浩(种子思维作者)2 小时前
量子AI真的可以在经典物理硬件中实现吗?
人工智能·python·量子计算
走遍西兰花.jpg2 小时前
修改jupyter 的默认路径
python·jupyter
一点 内容2 小时前
智汇前沿,印创未来:2026中国五大专业印刷展会全景洞察与战略导航
大数据·人工智能·物联网