flink kafka sink (scala)

将对象数据通过Gson 转为jsonString,在将数据写到kafka中,这个可以根据需要修改,比如按照\t分开也行,可以节省字段名称的空间。

这里还有一个问题,就是每来一条数据都需要new Gson 对象,有没有办法减少创建呢

我们知道job 和task之间是不能够传输序列化的对象的。

那么如果需要减少Gson的创建,可以自定义map函数,继承并实现RichMapFunction中的方法,其中open就可以只创建一次Gson。

data.map(new Gson().toJson(_))

.addSink(new FlinkKafkaProducer[String]("topicName", new SimpleStringSchema(), props, Optional.ofNullable[FlinkKafkaPartitioner[String]](null)))

.uid("write-to-kafka")

.name("write-to-kafka")

自定义map:

private class DemoMap extends RichMapFunction[Data, String] {

var gson:Gson=_

override def open(parameters: Configuration): Unit = {

gson=new Gson()

}

override def map(value: Data): String = {

gson.toJson(value)

}

override def close(): Unit = {

}

}

相关推荐
Jackeyzhe8 小时前
Flink学习笔记:时间与Watermark
flink
expect7g12 小时前
Paimon源码解读 -- Compaction-2.KeyValueFileWriterFactory
大数据·后端·flink
云岫11515 小时前
高贵的hasNext带着“迭代器”袭击你的大脑
scala
Wang's Blog16 小时前
Elastic Stack梳理:Logstash Input插件详解与Codec插件应用指南之文件监控、多行日志处理与Kafka集成
分布式·搜索引擎·kafka·elastic search
Mxsoft61918 小时前
我发现Flink事件时间窗口对齐,解决实时巡检数据延迟救场!
大数据·flink
Hello.Reader1 天前
在 Flink SQL 里做向量检索 VECTOR_SEARCH
大数据·sql·flink
太阳伞下的阿呆1 天前
kafka高吞吐持久化方案(1)
分布式·mysql·kafka·db·高吞吐
驾数者2 天前
Flink SQL关联查询:双流Join与维表Join实战技巧
数据库·sql·flink
Hello.Reader2 天前
在 Flink SQL 中玩转实时模型推理 —— ML_PREDICT 实战解析
sql·flink·linq
Mxsoft6192 天前
Flink CEP预警连锁故障,提前30分钟救场!
大数据·flink