【Flink实战】Flink -C实现类路径配置与实现UDF Jar

文章目录

    • [1. 描述](#1. 描述)
    • [2. 使用语法](#2. 使用语法)
    • [3. `-C` 适用的 Flink 运行模式](#3. -C 适用的 Flink 运行模式)
    • [4. USING JAR 不可用](#4. USING JAR 不可用)

1. 描述

Flink 中的 -C 选项用于将 URL 添加到作业的类加载器中。URL可以指向本地、HTTP 服务器或 HDFS 等资源的Jar文件。

注意:

  1. 此处的classpath的url必须是一个能够在client,JM和TM都被访问到的位置。
  2. 此位置从client端的提交到JM的分发到TM的访问的过程中,不会发生文件移动的动作。
  3. url支持的协议包括file,ftp,gopher,http,https,jar,mailto,netdoc,亦即java中URL类支持的协议类型。
  4. 注意:不能放在hdfs上。否则会报错:Bad syntax for classpath: hdfs://xxx。

2. 使用语法

shell 复制代码
flink run \
  -C http://home/user/flink-udf1.jar \
  -C http://home/user/flink-udf2.jar \
  -j job.jar

配置多个udf: 每个 -C 选项只能对应一个 JAR ,不能用逗号 , 分隔多个路径。

如下示例,

从Taskmanager日志可以看到成功加载https格式的jar包

url路径的结尾可以不以.jar结尾

运行模式 是否支持 -C
Standalone(独立模式) ✅ 支持
YARN Session ✅ 支持
YARN Per-job ✅ 支持
Kubernetes ✅ 支持
Local(本地模式) ✅ 支持

4. USING JAR 不可用

使用Flink Sql加载udf

sql 复制代码
CREATE FUNCTION my_udf AS 'com.example.MyUDF' USING JAR 'hdfs://namenode:9000/flink-udf.jar';

报错:直接不可用。

log 复制代码
org.apache.flink.api.common.InvalidProgramException: Table program cannot be compiled. This is a bug. Please file an issue. at
相关推荐
StarRocks_labs7 小时前
从InfluxDB到StarRocks:Grab实现Spark监控平台10倍性能提升
大数据·数据库·starrocks·分布式·spark·iris·物化视图
董可伦8 小时前
Dinky 安装部署并配置提交 Flink Yarn 任务
android·adb·flink
若兰幽竹8 小时前
【Spark分析HBase数据】Spark读取并分析HBase数据
大数据·spark·hbase
R²AIN SUITE8 小时前
金融合规革命:R²AIN SUITE 如何重塑银行业务智能
大数据·人工智能
绿算技术9 小时前
“强强联手,智启未来”凯创未来与绿算技术共筑高端智能家居及智能照明领域新生态
大数据·人工智能·智能家居
只因只因爆11 小时前
spark的缓存
大数据·缓存·spark
Leo.yuan11 小时前
3D 数据可视化系统是什么?具体应用在哪方面?
大数据·数据库·3d·信息可视化·数据分析
只因只因爆12 小时前
spark小任务
大数据·分布式·spark
cainiao08060512 小时前
Java 大视界——Java 大数据在智慧交通智能停车诱导系统中的数据融合与实时更新
java·大数据·开发语言
End92815 小时前
Spark之搭建Yarn模式
大数据·分布式·spark