flink kafka sink (scala)

将对象数据通过Gson 转为jsonString,在将数据写到kafka中,这个可以根据需要修改,比如按照\t分开也行,可以节省字段名称的空间。

这里还有一个问题,就是每来一条数据都需要new Gson 对象,有没有办法减少创建呢

我们知道job 和task之间是不能够传输序列化的对象的。

那么如果需要减少Gson的创建,可以自定义map函数,继承并实现RichMapFunction中的方法,其中open就可以只创建一次Gson。

data.map(new Gson().toJson(_))

.addSink(new FlinkKafkaProducer[String]("topicName", new SimpleStringSchema(), props, Optional.ofNullable[FlinkKafkaPartitioner[String]](null)))

.uid("write-to-kafka")

.name("write-to-kafka")

自定义map:

private class DemoMap extends RichMapFunction[Data, String] {

var gson:Gson=_

override def open(parameters: Configuration): Unit = {

gson=new Gson()

}

override def map(value: Data): String = {

gson.toJson(value)

}

override def close(): Unit = {

}

}

相关推荐
梦里不知身是客118 小时前
flink对于迟到数据的处理
前端·javascript·flink
梦里不知身是客1110 小时前
flink有状态计算中状态的分类
大数据·flink
路边草随风12 小时前
java实现发布flink yarn application模式作业
java·大数据·flink·yarn
码以致用13 小时前
Kafka笔记
笔记·分布式·kafka
expect7g14 小时前
Paimon源码解读 -- Compaction-3.MergeSorter
大数据·后端·flink
BullSmall17 小时前
Kafka单机与集群部署全攻略
分布式·kafka
青云交18 小时前
Java 大视界 -- Java 大数据在智能医疗电子病历数据分析与临床决策支持中的应用
java·flink·数据清洗·电子病历·智能医疗·医疗信息化·临床决策
Hello.Reader19 小时前
Flink SQL 中的 OVER 聚合——为每一行算“窗口统计
数据库·sql·flink
JavaBoy_XJ19 小时前
Kafka在 Spring Boot 项目中的完整配置指南
spring boot·kafka·kafka配置