flink kafka sink (scala)

将对象数据通过Gson 转为jsonString,在将数据写到kafka中,这个可以根据需要修改,比如按照\t分开也行,可以节省字段名称的空间。

这里还有一个问题,就是每来一条数据都需要new Gson 对象,有没有办法减少创建呢

我们知道job 和task之间是不能够传输序列化的对象的。

那么如果需要减少Gson的创建,可以自定义map函数,继承并实现RichMapFunction中的方法,其中open就可以只创建一次Gson。

data.map(new Gson().toJson(_))

.addSink(new FlinkKafkaProducer[String]("topicName", new SimpleStringSchema(), props, Optional.ofNullable[FlinkKafkaPartitioner[String]](null)))

.uid("write-to-kafka")

.name("write-to-kafka")

自定义map:

private class DemoMap extends RichMapFunction[Data, String] {

var gson:Gson=_

override def open(parameters: Configuration): Unit = {

gson=new Gson()

}

override def map(value: Data): String = {

gson.toJson(value)

}

override def close(): Unit = {

}

}

相关推荐
戮戮4 小时前
从 Spring @Retryable 到 Kafka 原生重试:消息重试方案的演进与最佳实践
spring·kafka·linq
l***O5205 小时前
大数据实时处理:Flink流处理
大数据·flink
Q***f6356 小时前
后端消息队列学习资源,RabbitMQ+Kafka
学习·kafka·rabbitmq
Bohemian—Rhapsody7 小时前
kafka主题(topic)数据保留时间设置
分布式·kafka
hongweihao11 小时前
Kafka 消息积压了,同事跑路了
后端·spring cloud·kafka
程序猿小白日记12 小时前
5G技术:推动智能制造和工业互联网革命的核心动力
flink
Violet_YSWY14 小时前
bitnami/kafka环境变量讲解
分布式·kafka
无心水14 小时前
【分布式利器:Kafka】Kafka基本原理详解:架构、流转机制与高吞吐核心(附实战配置)
分布式·架构·kafka·partition·零拷贝·broker·分布式流处理平台
千百元16 小时前
kafka验证消息时报错
分布式·kafka
c***V32317 小时前
后端消息队列选型:RabbitMQ与Kafka
分布式·kafka·rabbitmq