flink kafka sink (scala)

将对象数据通过Gson 转为jsonString,在将数据写到kafka中,这个可以根据需要修改,比如按照\t分开也行,可以节省字段名称的空间。

这里还有一个问题,就是每来一条数据都需要new Gson 对象,有没有办法减少创建呢

我们知道job 和task之间是不能够传输序列化的对象的。

那么如果需要减少Gson的创建,可以自定义map函数,继承并实现RichMapFunction中的方法,其中open就可以只创建一次Gson。

data.map(new Gson().toJson(_))

.addSink(new FlinkKafkaProducer[String]("topicName", new SimpleStringSchema(), props, Optional.ofNullable[FlinkKafkaPartitioner[String]](null)))

.uid("write-to-kafka")

.name("write-to-kafka")

自定义map:

private class DemoMap extends RichMapFunction[Data, String] {

var gson:Gson=_

override def open(parameters: Configuration): Unit = {

gson=new Gson()

}

override def map(value: Data): String = {

gson.toJson(value)

}

override def close(): Unit = {

}

}

相关推荐
IvanCodes1 天前
一、消息队列理论基础与Kafka架构价值解析
大数据·后端·kafka
初次攀爬者3 天前
Kafka的Rebalance基础介绍
后端·kafka
初次攀爬者4 天前
Kafka + KRaft模式架构基础介绍
后端·kafka
初次攀爬者4 天前
Kafka + ZooKeeper架构基础介绍
后端·zookeeper·kafka
初次攀爬者4 天前
Kafka 基础介绍
spring boot·kafka·消息队列
大大大大晴天4 天前
Flink生产问题排障-HBase NotServingRegionException
flink·hbase
大大大大晴天5 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
DemonAvenger8 天前
Kafka性能调优:从参数配置到硬件选择的全方位指南
性能优化·kafka·消息队列
zxfBdd9 天前
Error:scala: No ‘scala-library*.jar‘ in Scala compiler classpath in Scala SDK
大数据·scala·jar