flink kafka sink (scala)

将对象数据通过Gson 转为jsonString,在将数据写到kafka中,这个可以根据需要修改,比如按照\t分开也行,可以节省字段名称的空间。

这里还有一个问题,就是每来一条数据都需要new Gson 对象,有没有办法减少创建呢

我们知道job 和task之间是不能够传输序列化的对象的。

那么如果需要减少Gson的创建,可以自定义map函数,继承并实现RichMapFunction中的方法,其中open就可以只创建一次Gson。

data.map(new Gson().toJson(_))

.addSink(new FlinkKafkaProducer[String]("topicName", new SimpleStringSchema(), props, Optional.ofNullable[FlinkKafkaPartitioner[String]](null)))

.uid("write-to-kafka")

.name("write-to-kafka")

自定义map:

private class DemoMap extends RichMapFunction[Data, String] {

var gson:Gson=_

override def open(parameters: Configuration): Unit = {

gson=new Gson()

}

override def map(value: Data): String = {

gson.toJson(value)

}

override def close(): Unit = {

}

}

相关推荐
杀死那个蝈坦14 小时前
MyBatis-Plus 使用指南
java·kafka·tomcat·mybatis—plus
小坏讲微服务15 小时前
SpringBoot4.0整合Scala完整使用
java·开发语言·spring boot·后端·scala·mybatis
bigdata-rookie18 小时前
Scala 泛型
开发语言·后端·scala
卓码软件测评18 小时前
【第三方CNAS软件测试机构:Gatling中的资源监控_实时收集服务器CPU、内存、磁盘I/O和网络指标】
后端·测试工具·测试用例·scala·压力测试
Hello.Reader20 小时前
Flink SQL 中的 SELECT DISTINCT批流一体下的去重与状态管理
数据库·sql·flink
路边草随风21 小时前
go实现接口接收数据写入kafka
golang·kafka·gin
Jackyzhe1 天前
Flink学习笔记:时间与Watermark
大数据·flink
小股虫1 天前
Kafka深度解析:从日志处理到流处理的“数据管道扛把子
分布式·kafka
Hello.Reader1 天前
Flink SQL 中的 SELECT & WHERE,批流统一的查询入口
sql·flink·linq
Zzzzzxl_1 天前
互联网大厂Java/Agent面试:Spring Boot、JVM、微服务、RAG与向量检索实战问答
java·jvm·spring boot·kafka·rag·microservices·vectordb