flink kafka sink (scala)

将对象数据通过Gson 转为jsonString,在将数据写到kafka中,这个可以根据需要修改,比如按照\t分开也行,可以节省字段名称的空间。

这里还有一个问题,就是每来一条数据都需要new Gson 对象,有没有办法减少创建呢

我们知道job 和task之间是不能够传输序列化的对象的。

那么如果需要减少Gson的创建,可以自定义map函数,继承并实现RichMapFunction中的方法,其中open就可以只创建一次Gson。

data.map(new Gson().toJson(_))

.addSink(new FlinkKafkaProducer[String]("topicName", new SimpleStringSchema(), props, Optional.ofNullable[FlinkKafkaPartitioner[String]](null)))

.uid("write-to-kafka")

.name("write-to-kafka")

自定义map:

private class DemoMap extends RichMapFunction[Data, String] {

var gson:Gson=_

override def open(parameters: Configuration): Unit = {

gson=new Gson()

}

override def map(value: Data): String = {

gson.toJson(value)

}

override def close(): Unit = {

}

}

相关推荐
Github掘金计划34 分钟前
开发者狂喜!GitHub 官方开源:支持 Copilot/Cursor,规范即代码,27k Star 封神!
java·python·kafka·github·copilot
ha_lydms2 小时前
Kafka如何提高读写效率
分布式·kafka
Jackyzhe2 小时前
Flink源码阅读:如何生成StreamGraph
大数据·flink
Hello.Reader2 小时前
Flink SQL Window Deduplication按窗口“保留第一条/最后一条”记录(Streaming)
大数据·sql·flink
Hello.Reader4 小时前
Flink SQL 模式识别用 MATCH_RECOGNIZE 把 CEP 写成 SQL
sql·flink·知识图谱
Jackyzhe5 小时前
Flink源码阅读:如何生成JobGraph
大数据·flink
武子康5 小时前
Java-196 消息队列选型:RabbitMQ vs RocketMQ vs Kafka
java·分布式·kafka·rabbitmq·rocketmq·java-rocketmq·java-rabbitmq
华大哥5 小时前
Kafka 和springboot 整合Logback日志
spring boot·kafka·logback日志
Jackeyzhe17 小时前
Flink学习笔记:如何做容错
flink
expect7g1 天前
Paimon源码解读 -- Compaction-6.CompactStrategy
大数据·后端·flink