flink kafka sink (scala)

将对象数据通过Gson 转为jsonString,在将数据写到kafka中,这个可以根据需要修改,比如按照\t分开也行,可以节省字段名称的空间。

这里还有一个问题,就是每来一条数据都需要new Gson 对象,有没有办法减少创建呢

我们知道job 和task之间是不能够传输序列化的对象的。

那么如果需要减少Gson的创建,可以自定义map函数,继承并实现RichMapFunction中的方法,其中open就可以只创建一次Gson。

data.map(new Gson().toJson(_))

.addSink(new FlinkKafkaProducer[String]("topicName", new SimpleStringSchema(), props, Optional.ofNullable[FlinkKafkaPartitioner[String]](null)))

.uid("write-to-kafka")

.name("write-to-kafka")

自定义map:

private class DemoMap extends RichMapFunction[Data, String] {

var gson:Gson=_

override def open(parameters: Configuration): Unit = {

gson=new Gson()

}

override def map(value: Data): String = {

gson.toJson(value)

}

override def close(): Unit = {

}

}

相关推荐
路飞说AI10 小时前
分布式事务最佳实践:基于kafka实现的最终一致性方案
kafka
Devin~Y14 小时前
互联网大厂Java面试:Spring Boot/Redis/Kafka/K8s 可观测 + RAG(向量检索/Agent)三轮追问实录
java·spring boot·redis·kafka·kubernetes·spring mvc·webflux
路飞说AI14 小时前
Kafka消息不丢失全攻略
kafka
落子君15 小时前
kafka接受消息
kafka
下地种菜小叶16 小时前
接口幂等怎么设计?一次讲清重复提交、支付回调、幂等键与防重落地方案
java·spring boot·spring·kafka·maven
深兰科技1 天前
深兰科技与淡水河谷合作推进:矿区示范加速落地
java·人工智能·python·c#·scala·symfony·深兰科技
_下雨天.2 天前
Zookeeper+Kafka消息队列单节点与集群部署
分布式·zookeeper·kafka
kiku18182 天前
Kafka消息队列+zookeeper
zookeeper·kafka
炸炸鱼.2 天前
Zookeeper + Kafka 消息队列集群部署手册
zookeeper·kafka
卢傢蕊2 天前
Kafka 消息队列
分布式·kafka·java-zookeeper