Flink 的 Kafka Table API Connector

Flink DataStream Connectors和Table API Connectors是Flink中用于连接外部数据源的两种不同的连接器。

  • Flink DataStream Connectors是用于将外部数据源连接到Flink DataStream API的连接器。

  • 它们提供了与各种数据源(如Kafka、RabbitMQ、HDFS等)的集成能力。

  • DataStream Connectors提供了低级别的数据源和数据接收器的接口,允许用户以更细粒度的方式控制数据的读取和写入。

2. Table API Connectors:

  • Flink Table API Connectors是用于将外部数据源连接到Flink Table API和SQL的连接器。

- 它们提供了与各种数据源(如Kafka、JDBC、Elasticsearch等)的集成能力。

**- Table API Connectors提供了高级别的接口,使用户可以使用类似于SQL的语法来查询和处理数据。

  • 它们支持将外部数据源映射为Flink表,并提供了对表的查询和转换的操作。**

总的来说,DataStream Connectors提供了更低级别的接口,允许用户更细粒度地控制数据的读取和写入,而Table API Connectors提供了更高级别的接口,使用户可以使用类似于SQL的语法来查询和处理数据。DataStream connectors 在一个相对较低级别的命令式编程 API 中提供了流处理的原语(即时间、状态和数据流管理), Table API connectors 抽象了许多内部结构,并提供了结构化和声明性的 API。两种 API 都可以处理有界和无界流。

Flink DataStream API与Data Table API集成:https://lrting.top/backend/3912/

Kafka 的 Table API Connector:https://nightlies.apache.org/flink/flink-docs-release-1.17/docs/connectors/table/kafka/

使用 Kafka 的 Table API Connector:https://blog.csdn.net/wtmdcnm/article/details/117821106

对于用户认可的生产实践使用Flink的业务场景来说,主要是以下四种:

  • 实时 ETL。
  • 实时数据报表。
  • 实时业务监控。
  • 然后还有一个就是 CEP 在线业务。

https://flink-learning.org.cn/article/detail/817b69f597fa691edc57269a8b3b78cd?name=article&tab=suoyou&page=-1

相关推荐
得物技术6 小时前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
大大大大晴天6 小时前
Flink生产问题排障-HBase NotServingRegionException
flink·hbase
武子康7 小时前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
武子康1 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天1 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
武子康3 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive
DemonAvenger4 天前
Kafka性能调优:从参数配置到硬件选择的全方位指南
性能优化·kafka·消息队列
武子康4 天前
大数据-235 离线数仓 - 实战:Flume+HDFS+Hive 搭建 ODS/DWD/DWS/ADS 会员分析链路
大数据·后端·apache hive
DianSan_ERP5 天前
电商API接口全链路监控:构建坚不可摧的线上运维防线
大数据·运维·网络·人工智能·git·servlet
够快云库5 天前
能源行业非结构化数据治理实战:从数据沼泽到智能资产
大数据·人工智能·机器学习·企业文件安全