flink kafka sink (scala)

将对象数据通过Gson 转为jsonString,在将数据写到kafka中,这个可以根据需要修改,比如按照\t分开也行,可以节省字段名称的空间。

这里还有一个问题,就是每来一条数据都需要new Gson 对象,有没有办法减少创建呢

我们知道job 和task之间是不能够传输序列化的对象的。

那么如果需要减少Gson的创建,可以自定义map函数,继承并实现RichMapFunction中的方法,其中open就可以只创建一次Gson。

data.map(new Gson().toJson(_))

.addSink(new FlinkKafkaProducer[String]("topicName", new SimpleStringSchema(), props, Optional.ofNullable[FlinkKafkaPartitioner[String]](null)))

.uid("write-to-kafka")

.name("write-to-kafka")

自定义map:

private class DemoMap extends RichMapFunction[Data, String] {

var gson:Gson=_

override def open(parameters: Configuration): Unit = {

gson=new Gson()

}

override def map(value: Data): String = {

gson.toJson(value)

}

override def close(): Unit = {

}

}

相关推荐
2501_941624334 小时前
云计算与边缘计算:未来数字化转型的双引擎
kafka
while(努力):进步5 小时前
人工智能的未来:如何改变我们的工作与生活
kafka
ZHOUZAIHUI6 小时前
WSL(Ubuntu24.04) 安装PostgreSQL
开发语言·后端·scala
2501_941403768 小时前
人工智能与机器学习:未来科技的核心驱动力
kafka
chde2Wang11 小时前
运行scala文件报错xsbt.CompilerInterface
bug·scala
驾数者11 小时前
DDL实战指南:如何定义和管理动态表
大数据·sql·flink
一只会写代码的猫12 小时前
云原生与编程语言:如何应对现代应用的复杂性挑战
kafka
Hello.Reader12 小时前
Flink CDC 用 OceanBase CDC 实时同步数据到 Elasticsearch
elasticsearch·flink·oceanbase
2501_9411433215 小时前
如何运用云计算提升企业的IT基础设施灵活性和成本效益
kafka
2501_9416233217 小时前
边缘计算与工业AI:引领企业数字化新潮流
kafka