flink cdc使用flink sql方式运行一直报Make sure a planner module is on the classpath

flink cdc使用flink sql方式运行一直报Make sure a planner module is on the classpath

引入jar包信息:

flink-connector-oracle-cdc:3.2.1

flink:1.20.0

flink-table-runtime:1.20.0

flink-streaming-java:1.20.0

flink-clients:1.20.0

java 复制代码
Exception in thread "main" org.apache.flink.table.api.TableException: Could not instantiate the executor. Make sure a planner module is on the classpath
	at org.apache.flink.table.api.bridge.internal.AbstractStreamTableEnvironmentImpl.lookupExecutor(AbstractStreamTableEnvironmentImpl.java:109)
	at org.apache.flink.table.api.bridge.java.internal.StreamTableEnvironmentImpl.create(StreamTableEnvironmentImpl.java:110)
	at org.apache.flink.table.api.bridge.java.StreamTableEnvironment.create(StreamTableEnvironment.java:122)
	at org.apache.flink.table.api.bridge.java.StreamTableEnvironment.create(StreamTableEnvironment.java:94)
	at com.anytxn.cdc.finksql.CardholderSqlCdc.main(CardholderSqlCdc.java:23)
Caused by: org.apache.flink.table.api.ValidationException: Could not find any factories that implement 'org.apache.flink.table.delegation.ExecutorFactory' in the classpath.
	at org.apache.flink.table.factories.FactoryUtil.discoverFactory(FactoryUtil.java:612)
	at org.apache.flink.table.api.bridge.internal.AbstractStreamTableEnvironmentImpl.lookupExecutor(AbstractStreamTableEnvironmentImpl.java:106)
	... 4 more

Flink 发行版默认包含执行 Flink SQL 任务的必要 JAR 文件(位于 /lib 目录),主要有:

  • flink-table-api-java-uber-1.20.0.jar → 包含所有的 Java API;
  • flink-table-runtime-1.20.0.jar → 包含 Table 运行时;
  • flink-table-planner-loader-1.20.0.jar → 包含查询计划器。

以前,这些 JAR 都打包进了 flink-table.jar,自从 Flink 1.15 开始,已将其划分成三个 JAR,以允许用户使用 flink-table-planner-loader-1.20.0.jar 充当 flink-table-planner_2.12-1.20.0.jar

根据官网提示,缺少了flink-table-planner-loader、flink-table-api-java-uber

加上之后,再运行,还是报一样的错。

最后,再引入这个包:flink-table-api-java

运行就不报错了。

参考:

https://zhuanlan.zhihu.com/p/558950840

高级配置 | Apache Flink

相关推荐
MrZhangBaby11 分钟前
SQL-leetcode—3374. 首字母大写 II
linux·sql·leetcode
Java小白程序员1 小时前
SQL 语句进阶实战:从基础查询到性能优化全指南
数据库·sql·性能优化
IT毕设梦工厂2 小时前
大数据毕业设计选题推荐-基于大数据的1688商品类目关系分析与可视化系统-Hadoop-Spark-数据可视化-BigData
大数据·毕业设计·源码·数据可视化·bigdata·选题推荐
君不见,青丝成雪2 小时前
Hadoop技术栈(四)HIVE常用函数汇总
大数据·数据库·数据仓库·hive·sql
万邦科技Lafite2 小时前
利用淘宝开放API接口监控商品状态,掌握第一信息
大数据·python·电商开放平台·开放api接口·淘宝开放平台
更深兼春远7 小时前
flink+clinkhouse安装部署
大数据·clickhouse·flink
python_chai9 小时前
从数据汇总到高级分析,SQL 查询进阶实战(下篇)—— 分组、子查询与窗口函数全攻略
数据库·sql·mysql
专注API从业者10 小时前
Python + 淘宝 API 开发:自动化采集商品数据的完整流程
大数据·运维·前端·数据挖掘·自动化
媒体人88811 小时前
GEO 优化专家孟庆涛:技术破壁者重构 AI 时代搜索逻辑
大数据·人工智能
最初的↘那颗心12 小时前
Flink Stream API 源码走读 - print()
java·大数据·hadoop·flink·实时计算