Flink 的 Kafka Table API Connector

Flink DataStream Connectors和Table API Connectors是Flink中用于连接外部数据源的两种不同的连接器。

  • Flink DataStream Connectors是用于将外部数据源连接到Flink DataStream API的连接器。

  • 它们提供了与各种数据源(如Kafka、RabbitMQ、HDFS等)的集成能力。

  • DataStream Connectors提供了低级别的数据源和数据接收器的接口,允许用户以更细粒度的方式控制数据的读取和写入。

2. Table API Connectors:

  • Flink Table API Connectors是用于将外部数据源连接到Flink Table API和SQL的连接器。

- 它们提供了与各种数据源(如Kafka、JDBC、Elasticsearch等)的集成能力。

**- Table API Connectors提供了高级别的接口,使用户可以使用类似于SQL的语法来查询和处理数据。

  • 它们支持将外部数据源映射为Flink表,并提供了对表的查询和转换的操作。**

总的来说,DataStream Connectors提供了更低级别的接口,允许用户更细粒度地控制数据的读取和写入,而Table API Connectors提供了更高级别的接口,使用户可以使用类似于SQL的语法来查询和处理数据。DataStream connectors 在一个相对较低级别的命令式编程 API 中提供了流处理的原语(即时间、状态和数据流管理), Table API connectors 抽象了许多内部结构,并提供了结构化和声明性的 API。两种 API 都可以处理有界和无界流。

Flink DataStream API与Data Table API集成:https://lrting.top/backend/3912/

Kafka 的 Table API Connector:https://nightlies.apache.org/flink/flink-docs-release-1.17/docs/connectors/table/kafka/

使用 Kafka 的 Table API Connector:https://blog.csdn.net/wtmdcnm/article/details/117821106

对于用户认可的生产实践使用Flink的业务场景来说,主要是以下四种:

  • 实时 ETL。
  • 实时数据报表。
  • 实时业务监控。
  • 然后还有一个就是 CEP 在线业务。

https://flink-learning.org.cn/article/detail/817b69f597fa691edc57269a8b3b78cd?name=article&tab=suoyou&page=-1

相关推荐
weixin_307779132 分钟前
PySpark实现MERGE INTO的数据合并功能
大数据·python·spark
(; ̄ェ ̄)。2 小时前
在Nodejs中使用kafka(三)offset偏移量控制策略,数据保存策略
分布式·后端·kafka·node.js
binbinxyz3 小时前
【Kafka系列】Kafka 消息传递保障机制
分布式·kafka
vx153027823624 小时前
CDGA|企业数据治理实战:从疏通“信息河”到打造优质“数据湖”
java·大数据·人工智能·cdga·数据治理
苏生Susheng4 小时前
【SpringBoot整合系列】Kafka的各种模式及Spring Boot整合的使用基础案例
java·spring boot·后端·spring·kafka·消息队列·并发
AIRIOT6 小时前
AIRIOT智慧消防管理解决方案
大数据
哔哩哔哩技术7 小时前
ClickHouse BSI与字典服务在B站商业化DMP中的应用实践
大数据
想做富婆7 小时前
数仓搭建(hive):DM搭建(数据集市层)
大数据·数仓搭建
python资深爱好者8 小时前
使用机器学习算法进行大数据预测或分类的案例
大数据·算法·机器学习