Spark-Streaming核心编程:有状态转化操作与DStream输出

在Spark-Streaming的学习旅程中,有状态转化操作和DStream输出是两个关键知识点,今天就来深入聊聊它们。

先说说有状态转化操作,这里面 UpdateStateByKey 和 WindowOperations 很重要。 UpdateStateByKey 主要用于跨批次维护状态,就像在流计算里统计单词出现次数并不断累加。使用时,得先定义状态,状态类型不受限制,然后定义状态更新函数,告诉程序怎么用新数据和之前的状态做更新。另外,还得配置检查点目录来保存状态。

WindowOperations 则是通过设置窗口大小和滑动间隔,动态获取当前流计算状态。窗口时长决定计算的时间范围,滑动步长控制计算的触发频率,而且这俩都得是采集周期的整数倍。

再看看DStream输出,它规定了对转化后流数据的处理方式。要是一个DStream及其派生的DStream都没执行输出操作,那这些DStream都不会被求值,整个StreamingContext也启动不了。

常见的输出操作有 print() ,能在驱动节点打印每批数据的前10个元素,方便开发调试; saveAsTextFiles 、 saveAsObjectFiles 、 saveAsHadoopFiles ,分别用于以不同格式存储数据;还有 foreachRDD(func) ,这是最通用的,能对每个RDD运行任意计算,比如把数据写入MySQL数据库。不过使用时要注意,连接别写在driver层面,也别在 foreach 里为每条数据创建连接,最好用 foreachPartition 在分区创建连接,提升效率。

相关推荐
白总Server14 小时前
React-fiber架构
开发语言·网络·网络协议·golang·scala·核心·fiber
北极象4 天前
各编程语言对正则表达式标准的支持对比
开发语言·正则表达式·scala·go语言
小伍_Five5 天前
spark数据处理练习题详解【上】
java·开发语言·spark·scala
渣渣盟5 天前
Flink流处理:多源传感器数据实时处理,基于Scala使用Flink从不同数据源(集合、文件、Kafka、自定义 Source)读取传感器数据
flink·kafka·scala
小伍_Five5 天前
spark数据处理练习题详解【下】
java·大数据·spark·scala
进击的雷神7 天前
Perl语言深度考查:从文本处理到正则表达式的全面掌握
开发语言·后端·scala
进击的雷神7 天前
Perl测试起步:从零到精通的完整指南
开发语言·后端·scala
旋风小飞棍10 天前
如何在sheel中运行spark
大数据·开发语言·scala
rylshe131410 天前
在scala中sparkSQL连接mysql并添加新数据
开发语言·mysql·scala
MZWeiei11 天前
Spark任务调度流程详解
大数据·分布式·spark·scala