8.Flink数据流API编程指南-下

目录

  • 概述
  • [Data Sinks](#Data Sinks)

概述

此篇是 Flink数据流API编程指南-上 的补充,链接

Data Sinks

Data sinks消费数据流并向文件、sockets、外部存储系统或打印它们, Flink 提供了几种内置的写入的方式:

  • writeAsText() / TextOutputFormat -将元素逐行写入字符串。通过调用每个元素的toString()方法获得string。

  • writeAsCsv(...) / CsvOutputFormat - 将元组写入以逗号分隔的值文件。行和字段分隔符是可配置的。每个字段的值来自对象的toString()方法。

  • print() / printToErr() - 打印标准输出/标准错误流中每个元素的toString()值。可选地,可以提供一个前缀(msg),它被附加到输出。这可以帮助区分不同的打印调用。如果并行度大于1,输出也将加上产生输出的任务的标识符。

  • writeUsingOutputFormat() / FileOutputFormat - 支持方法和基类用于自定义文件输出。支持自定义对象到字节的转换。

  • writeToSocket - 根据SerializationSchema将元素写入socket

  • addSink -调用自定义接收函数。Flink与其他系统(如Apache Kafka)的连接器捆绑在一起,这些系统被实现为接收函数。

注意,数据流上的 write*() 方法主要用于调试目的。它们不参与Flink的检查点,这意味着这些函数通常具有至少一次的语义。将数据刷新到目标系统取决于OutputFormat的实现。这意味着并非发送到OutputFormat的所有元素都会立即显示在目标系统中。此外,在失败的情况下,这些记录可能会丢失。

相关推荐
念陌曦21 小时前
Flink总结
大数据·flink
岁岁种桃花儿2 天前
Flink从入门到上天系列第二十五篇:Flink和Kafka连接时的精准一次性
大数据·flink·kafka
岁岁种桃花儿3 天前
Flink从入门到上天系列第二十四篇:Flink中的保存点
大数据·flink
yumgpkpm3 天前
华为昇腾910B 开源软件GPUStack的介绍(Cloudera CDH、CDP)
人工智能·hadoop·elasticsearch·flink·kafka·企业微信·big data
岁岁种桃花儿4 天前
Flink从入门到上天系列第二十二篇:Flink中通过UI查看检查点
大数据·ui·flink
D愿你归来仍是少年4 天前
Apache Flink 算子(Operator)深度解析
大数据·flink·apache
岁岁种桃花儿4 天前
Flink从入门到上天系列第二十一篇:Flink当中的检查点配置
大数据·flink
岁岁种桃花儿4 天前
Flink从入门到上天系列第二十三篇:Flink中增量检查点和最终检查点
大数据·flink
yumgpkpm4 天前
Apache Spark 和 Flink,处理实时大数据流对比(Cloudera CDH、CDP)
flink·spark·apache
岁岁种桃花儿4 天前
Flink从入门到上天系列第二十篇:Flink当中的Barrier算法
大数据·flink