Flink报错could not be loaded due to a linkage failure

文章目录

1、报错

在Flink上提交作业,点Submit没反应,F12看到接口报错信息为:

大概意思是,由于链接失败,无法加载程序的入口点类xx。没啥鸟用的信息,去日志目录继续分析:

2、原因

入口类在更高版本(55.0)的JDK编译,现在又在尝试使用52.0版本的JDK运行,查下这个编号和JDK的版本对应:

bash 复制代码
45 = Java1.1
46 = Java1.2
47 = Java1.3
48 = Java1.4
49 = Java 5
50 = Java 6
51 = Java 7
52 = Java 8
53 = Java 9
54 = Java 10 
55 = Java 11
56 = Java 12
57 = Java 13

想到,创建Maven项目时,JDK使用的是JDK11,而部署Flink的机器用的JDK环境是JDK8,报错原因就在这儿了!

3、解决

看下原Java的版本:

bash 复制代码
java -version
java --version

查看已安装的Java:

bash 复制代码
yum list installed |grep -i java
或者
rpm -q |grep -i java

卸载旧版本Java环境:

bash 复制代码
yum -y remove java-1.8.0-openjdk*

查看是否卸载成功:

bash 复制代码
java --version
# 输出
-bash: java: command not found

准备安装Java11,先查看yum库中的Java安装包:

bash 复制代码
yum list java*

安装:

bash 复制代码
yum install -y java-11-openjdk.x86_64

# 安装成功,可vim /etc/profile设置环境变量

重启Flink:

bash 复制代码
bin/stop-cluster.sh
bin/start-cluster.sh

问题解决:

相关推荐
小Tomkk1 小时前
大数据相关职位介绍之二(数据治理,数据库管理员, 数据资产管理师,数据质量专员)
大数据·数据治理·数据库管理员·数据资产管理师·数据质量专员
weixin_307779136 小时前
PySPARK带多组参数和标签的SparkSQL批量数据导出到S3的程序
大数据·数据仓库·python·sql·spark
字节全栈_mMD7 小时前
Flink Connector 写入 Iceberg 流程源码解析_confluent icebergsinkconnector
java·大数据·flink
songqq277 小时前
Flink报错Caused by: java.io.FileNotFoundException: /home/wc.txt
大数据·flink
字节全栈_kYu9 小时前
Hadoop大数据应用:HDFS 集群节点缩容
大数据·hadoop·hdfs
weixin_3077791311 小时前
流媒体娱乐服务平台在AWS上使用Presto作为大数据的交互式查询引擎的具体流程和代码
大数据·python·音视频·aws
weixin_3077791311 小时前
AWS EMR使用Apache Kylin快速分析大数据
大数据·数据仓库·云计算·aws·kylin
weixin_3077791315 小时前
AWS EMR上的Spark日志实时搜索关键指标网页呈现的设计和实现
大数据·python·spark·云计算·aws
一张假钞17 小时前
Spark的基本概念
大数据·分布式·spark