flink kafka sink (scala)

将对象数据通过Gson 转为jsonString,在将数据写到kafka中,这个可以根据需要修改,比如按照\t分开也行,可以节省字段名称的空间。

这里还有一个问题,就是每来一条数据都需要new Gson 对象,有没有办法减少创建呢

我们知道job 和task之间是不能够传输序列化的对象的。

那么如果需要减少Gson的创建,可以自定义map函数,继承并实现RichMapFunction中的方法,其中open就可以只创建一次Gson。

data.map(new Gson().toJson(_))

.addSink(new FlinkKafkaProducer[String]("topicName", new SimpleStringSchema(), props, Optional.ofNullable[FlinkKafkaPartitioner[String]](null)))

.uid("write-to-kafka")

.name("write-to-kafka")

自定义map:

private class DemoMap extends RichMapFunction[Data, String] {

var gson:Gson=_

override def open(parameters: Configuration): Unit = {

gson=new Gson()

}

override def map(value: Data): String = {

gson.toJson(value)

}

override def close(): Unit = {

}

}

相关推荐
Ctrl+S 之后4 小时前
新型多模态交互系统如何推动未来沉浸式数字体验全面进化的技术革新路线解析
flink
冰芒芒8 小时前
Kafka - 4 Kafka的副本同步机制
分布式·kafka
ZVAyIVqt0UFji9 小时前
Kafka 消费积压影响写入?试试 Pulsar
分布式·kafka
跟着珅聪学java10 小时前
Kafka 报错 No readable meta.properties files found解决方案
分布式·kafka
零碎岛1110 小时前
scala中trait基本使用
scala
q***845710 小时前
Spring Boot集成Kafka:最佳实践与详细指南
spring boot·kafka·linq
U***498310 小时前
SpringBoot集成Kafka,高吞吐消息处理
spring boot·后端·kafka
梦里不知身是客1111 小时前
kafka 消费者之分区分配策略
分布式·kafka
Hello.Reader13 小时前
使用 Flink CDC Elasticsearch Pipeline Connector 打通 MySQL 与 Elasticsearch 的实时链路
mysql·elasticsearch·flink