SparkStructuredStreaming状态编程

spark官网关于spark有状态编程介绍比较少,本文是一篇个人理解关于spark状态编程。

官网关于状态编程代码例子:

spark/examples/src/main/scala/org/apache/spark/examples/sql/streaming/StructuredComplexSessionization.scala at v3.5.0 · apache/spark (github.com)

一般的流计算使用窗口函数可以解决大部分问题,但是一些比较复杂的业务,窗口函数无法解决,比如需要的数据范围大于你设定的时间窗口,那么就需要状态编程处理中间状态。

案例:

数据一秒一条被spark消费,我需要找到的绿色部分代表再生(再生开始PFltRgn_stRgnActv,PFltRgn_stRgnActvHld变为两个1,再生结束变为两个0),我需要知道PFltRgn_ctRgnSuc再生阶段变化是否大于等于2(true: 意味再生成功)

如果开一个5s滚动窗口(红色框框),窗口内无法解决这个需求,那么我就需要记录每个窗口中当符合再生条件(绿色)PFltRgn_ctRgnSuc的最小值和最大值(这个就是中间状态)

代码调试中:.....

相关推荐
Eternity......6 小时前
搭建spark yarn 模式的集群
大数据·spark
lix的小鱼7 小时前
Spark集群搭建之Yarn模式
大数据·分布式·spark
洋芋爱吃芋头9 小时前
spark缓存-persist
大数据·缓存·spark
MarkHD9 小时前
第四天 从CAN总线到Spark/Flink实时处理
大数据·flink·spark
麻芝汤圆16 小时前
深入探索 Spark RDD 行动算子:功能解析与实战应用
大数据·hadoop·分布式·spark·mapreduce
夏天吃哈密瓜1 天前
Spark-core-RDD入门
大数据·分布式·spark
悻运1 天前
如何在sheel中运行Spark
大数据·分布式·spark
悻运1 天前
Spark缓存--persist方法
大数据·缓存·spark
悻运1 天前
Spark处理过程-案例数据清洗
大数据·分布式·spark
悻运1 天前
Spark缓存--cache方法
spark