Spark Streaming核心编程总结(四)

一、有状态转化操作:UpdateStateByKey

概念与作用

UpdateStateByKey 用于在流式计算中跨批次维护状态(如累加统计词频)。它允许基于键值对形式的DStream,通过自定义状态更新函数,将历史状态与新数据结合,生成包含最新状态的DStream。

实现步骤

  1. 定义状态类型:状态可以是任意数据类型(如示例中的Int类型)。

  2. 定义状态更新函数:接收当前批次的数据序列和旧状态,返回新状态。

Scala 复制代码
val updateFunc = (values: Seq[Int], state: Option[Int]) => {
val currentCount = values.sum
val previousCount = state.getOrElse(0)
Some(currentCount + previousCount)
}
  1. 配置检查点目录:必须设置检查点以持久化状态,确保容错性。
Scala 复制代码
ssc.checkpoint("./ck")
  1. 应用操作:通过updateStateByKey将函数作用于键值对DStream。
Scala 复制代码
val stateDStream = pairs.updateStateByKey[Int](updateFunc)

二、窗口操作:WindowOperations

概念与作用

窗口操作基于时间窗口动态处理数据,适用于滑动统计(如最近12秒内的词频)。需定义两个参数:

窗口时长:计算的时间范围(如Seconds(12))。

滑动步长:触发计算的间隔(如Seconds(6))。

实现示例

Scala 复制代码
val wordCounts = pairs.reduceByKeyAndWindow(
(a: Int, b: Int) => a + b, // 聚合函数
Seconds(12), // 窗口时长
Seconds(6) // 滑动步长
)

三、DStream输出操作

输出操作触发DStream的实际计算,支持多种数据落地方式:

  1. 基础输出

print():打印每批次前10个元素,用于调试。

saveAsTextFiles / saveAsObjectFiles / saveAsHadoopFiles:将数据保存为文本、序列化文件或Hadoop格式。

  1. 通用输出:foreachRDD

允许对每个RDD执行自定义操作(如写入数据库)。需注意:

连接管理:避免在Driver端创建连接(序列化问题),应在foreachPartition中按分区创建。

资源优化:每个分区建立一次连接,而非每条数据,减少开销。

示例:

Scala 复制代码
wordCounts.foreachRDD { rdd =>
rdd.foreachPartition { partition =>
val connection = createDatabaseConnection()
partition.foreach(data => connection.write(data))
connection.close()
}
}
相关推荐
后端AI实验室5 小时前
用AI写代码,我差点把漏洞发上线:血泪总结的10个教训
java·ai
程序员清风7 小时前
小红书二面:Spring Boot的单例模式是如何实现的?
java·后端·面试
belhomme7 小时前
(面试题)Redis实现 IP 维度滑动窗口限流实践
java·面试
Be_Better7 小时前
学会与虚拟机对话---ASM
java
悟空聊架构7 小时前
基于KaiwuDB在游乐场“刷卡+投币”双模消费系统中的落地实践
数据库·后端·架构
IvorySQL7 小时前
PostgreSQL 技术日报 (3月4日)|硬核干货 + 内核暗流一网打尽
数据库·postgresql·开源
开源之眼9 小时前
《github star 加星 Taimili.com 艾米莉 》为什么Java里面,Service 层不直接返回 Result 对象?
java·后端·github
Maori31610 小时前
放弃 SDKMAN!在 Garuda Linux + Fish 环境下的优雅 Java 管理指南
java
用户9083246027310 小时前
Spring AI 1.1.2 + Neo4j:用知识图谱增强 RAG 检索(上篇:图谱构建)
java·spring boot
进击的丸子10 小时前
虹软人脸服务器版SDK(Linux/ARM Pro)多线程调用及性能优化
linux·数据库·后端