flink kafka sink (scala)

将对象数据通过Gson 转为jsonString,在将数据写到kafka中,这个可以根据需要修改,比如按照\t分开也行,可以节省字段名称的空间。

这里还有一个问题,就是每来一条数据都需要new Gson 对象,有没有办法减少创建呢

我们知道job 和task之间是不能够传输序列化的对象的。

那么如果需要减少Gson的创建,可以自定义map函数,继承并实现RichMapFunction中的方法,其中open就可以只创建一次Gson。

data.map(new Gson().toJson(_))

.addSink(new FlinkKafkaProducer[String]("topicName", new SimpleStringSchema(), props, Optional.ofNullable[FlinkKafkaPartitioner[String]](null)))

.uid("write-to-kafka")

.name("write-to-kafka")

自定义map:

private class DemoMap extends RichMapFunction[Data, String] {

var gson:Gson=_

override def open(parameters: Configuration): Unit = {

gson=new Gson()

}

override def map(value: Data): String = {

gson.toJson(value)

}

override def close(): Unit = {

}

}

相关推荐
SlothLu2 小时前
Debezium-BinaryLogClient
java·mysql·kafka·binlog·多线程·debezium·数据迁移
Java 第一深情2 小时前
Flink数据源的读写介入体系
大数据·flink
天冬忘忧3 小时前
Kafka 消费者全面解析:原理、消费者 API 与Offset 位移
大数据·kafka
jlting1953 小时前
《智慧教育实时数据分析推荐项目》详细分析
大数据·redis·sql·kafka·database
jlting1954 小时前
Flink转换算子——flatMap/map/filter/keyby/reduce综合案例
数据库·flink
lix的小鱼4 小时前
Scala之Array数组
java·开发语言·后端·python·scala
喻师傅4 小时前
Scala—数组(数组定义、数组常用方法等)— 用法详解
开发语言·scala
anqi274 小时前
Scala 的Array 和 ArrayBuffer 集合
开发语言·后端·scala
大数据编程之光5 小时前
基于 Flink 的车辆超速监测与数据存储的小实战
大数据·flink·linq
zmd-zk9 小时前
flink学习(6)——自定义source和kafka
大数据·hadoop·学习·flink·kafka·实时