Flink报The implementation of the XxxFunction is not serializable

Flink报The implementation of the XxxFunction is not serializable

这个报错一般是因为XxxFunction引用了外部类的非静态方法导致。下面让我们使用如下示例代码复现一下:

c 复制代码
public class FlinkExceptionTest {
    public static void main(String[] args) throws Exception {
        // 1. 创建执行环境
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(1);
        // 2. 创建数据流
        DataStream<String> source = env.fromElements("1", "2", "3").returns(String.class).uid("source").name("source");
        // 3. 自定义处理数据
        new FlinkJobBase() {
            @Override
            public SingleOutputStreamOperator<Integer> customTransform(DataStream<String> dataStream) {
                return dataStream.flatMap(new FlatMapFunction<String, Integer>() {
                    @Override
                    public void flatMap(String value, Collector<Integer> out) throws Exception {
                        out.collect(get(value));
                    }
                });
            }
        }.customTransform(source).print();
        // 4. 执行程序
        env.execute("FlinkExceptionTest");
    }
}

abstract class FlinkJobBase {
    // 将一个字符串转为Integer
    public Integer get(String str) {
        return Integer.parseInt(str);
    }
    //自定义转换
    public abstract SingleOutputStreamOperator<Integer> customTransform(DataStream<String> dataStream);
}

代码执行后出现如下报错:

c 复制代码
Exception in thread "main" org.apache.flink.api.common.InvalidProgramException: The implementation of the FlatMapFunction is not serializable. The implementation accesses fields of its enclosing class, which is a common reason for non-serializability. A common solution is to make the function a proper (non-inner) class, or a static inner class.
	at org.apache.flink.api.java.ClosureCleaner.clean(ClosureCleaner.java:164)
	at org.apache.flink.api.java.ClosureCleaner.clean(ClosureCleaner.java:69)
	at org.apache.flink.streaming.api.environment.StreamExecutionEnvironment.clean(StreamExecutionEnvironment.java:2052)
	at org.apache.flink.streaming.api.datastream.DataStream.clean(DataStream.java:203)
	at org.apache.flink.streaming.api.datastream.DataStream.flatMap(DataStream.java:613)
	at com.xxxxxx.abcd.FlinkExceptionTest$1.customTransform(FlinkExceptionTest.java:19)
	at com.xxxxxx.abcd.FlinkExceptionTest.main(FlinkExceptionTest.java:26)
Caused by: java.io.NotSerializableException: com.xxxxxx.abcd.FlinkExceptionTest$1
	at java.io.ObjectOutputStream.writeObject0(ObjectOutputStream.java:1184)
	at java.io.ObjectOutputStream.defaultWriteFields(ObjectOutputStream.java:1548)
	at java.io.ObjectOutputStream.writeSerialData(ObjectOutputStream.java:1509)
	at java.io.ObjectOutputStream.writeOrdinaryObject(ObjectOutputStream.java:1432)
	at java.io.ObjectOutputStream.writeObject0(ObjectOutputStream.java:1178)
	at java.io.ObjectOutputStream.writeObject(ObjectOutputStream.java:348)
	at org.apache.flink.util.InstantiationUtil.serializeObject(InstantiationUtil.java:624)
	at org.apache.flink.api.java.ClosureCleaner.clean(ClosureCleaner.java:143)
	... 6 more

这个报错是 org.apache.flink.api.common.InvalidProgramException 异常,提示 FlatMapFunction 的实现不可序列化。异常信息表明实现访问了其封闭类的字段,这是导致不可序列化的常见原因。报错提示解决方法是将函数设置为一个适当的(非内部)类,或者设置为静态内部类。


现总结三种处理方式如下:

方法1. 将被调用的方法get()调整为静态方法
c 复制代码
abstract class FlinkJobBase {
    // 将一个字符串转为Integer
    public static Integer get(String str) {
        return Integer.parseInt(str);
    }
    //自定义转换
    public abstract SingleOutputStreamOperator<Integer> customTransform(DataStream<String> dataStream);
}
方法2. 让被调用方法get()的外部类实现Serializable
c 复制代码
abstract class FlinkJobBase implements Serializable {
    // 将一个字符串转为Integer
    public Integer get(String str) {
        return Integer.parseInt(str);
    }
    //自定义转换
    public abstract SingleOutputStreamOperator<Integer> customTransform(DataStream<String> dataStream);
}
方法3. 将被调用的方法get()转移到匿名内部类FlatMapFunction
c 复制代码
abstract class FlinkJobBase implements Serializable {
    // 将一个字符串转为Integer
    public Integer get(String str) {
        return Integer.parseInt(str);
    }
    //自定义转换
    public abstract SingleOutputStreamOperator<Integer> customTransform(DataStream<String> dataStream);
}

上述三种方式根据具体场景需求任选其一即可解决。代码修改后的执行结果如下:

c 复制代码
1
2
3

Process finished with exit code 0
相关推荐
Elastic 中国社区官方博客几秒前
Elasticsearch:使用 LLM 实现传统搜索自动化
大数据·人工智能·elasticsearch·搜索引擎·ai·自动化·全文检索
Jason不在家2 小时前
Flink 本地 idea 调试开启 WebUI
大数据·flink·intellij-idea
Elastic 中国社区官方博客3 小时前
使用 Vertex AI Gemini 模型和 Elasticsearch Playground 快速创建 RAG 应用程序
大数据·人工智能·elasticsearch·搜索引擎·全文检索
CHICX12294 小时前
【Hadoop】改一下core-site.xml和hdfs-site.xml配置就可以访问Web UI
xml·大数据·hadoop
权^4 小时前
MySQL--聚合查询、联合查询、子查询、合并查询(上万字超详解!!!)
大数据·数据库·学习·mysql
bin91539 小时前
【EXCEL数据处理】000010 案列 EXCEL文本型和常规型转换。使用的软件是微软的Excel操作的。处理数据的目的是让数据更直观的显示出来,方便查看。
大数据·数据库·信息可视化·数据挖掘·数据分析·excel·数据可视化
极客先躯12 小时前
Hadoop krb5.conf 配置详解
大数据·hadoop·分布式·kerberos·krb5.conf·认证系统
2301_7869643614 小时前
3、练习常用的HBase Shell命令+HBase 常用的Java API 及应用实例
java·大数据·数据库·分布式·hbase
matlabgoodboy14 小时前
“图像识别技术:重塑生活与工作的未来”
大数据·人工智能·生活
happycao12315 小时前
Flink 03 | 数据流基本操作
大数据·flink