Spark Streaming核心编程总结(四)

一、有状态转化操作:UpdateStateByKey

概念与作用

UpdateStateByKey 用于在流式计算中跨批次维护状态(如累加统计词频)。它允许基于键值对形式的DStream,通过自定义状态更新函数,将历史状态与新数据结合,生成包含最新状态的DStream。

实现步骤

  1. 定义状态类型:状态可以是任意数据类型(如示例中的Int类型)。

  2. 定义状态更新函数:接收当前批次的数据序列和旧状态,返回新状态。

Scala 复制代码
val updateFunc = (values: Seq[Int], state: Option[Int]) => {
val currentCount = values.sum
val previousCount = state.getOrElse(0)
Some(currentCount + previousCount)
}
  1. 配置检查点目录:必须设置检查点以持久化状态,确保容错性。
Scala 复制代码
ssc.checkpoint("./ck")
  1. 应用操作:通过updateStateByKey将函数作用于键值对DStream。
Scala 复制代码
val stateDStream = pairs.updateStateByKey[Int](updateFunc)

二、窗口操作:WindowOperations

概念与作用

窗口操作基于时间窗口动态处理数据,适用于滑动统计(如最近12秒内的词频)。需定义两个参数:

窗口时长:计算的时间范围(如Seconds(12))。

滑动步长:触发计算的间隔(如Seconds(6))。

实现示例

Scala 复制代码
val wordCounts = pairs.reduceByKeyAndWindow(
(a: Int, b: Int) => a + b, // 聚合函数
Seconds(12), // 窗口时长
Seconds(6) // 滑动步长
)

三、DStream输出操作

输出操作触发DStream的实际计算,支持多种数据落地方式:

  1. 基础输出

print():打印每批次前10个元素,用于调试。

saveAsTextFiles / saveAsObjectFiles / saveAsHadoopFiles:将数据保存为文本、序列化文件或Hadoop格式。

  1. 通用输出:foreachRDD

允许对每个RDD执行自定义操作(如写入数据库)。需注意:

连接管理:避免在Driver端创建连接(序列化问题),应在foreachPartition中按分区创建。

资源优化:每个分区建立一次连接,而非每条数据,减少开销。

示例:

Scala 复制代码
wordCounts.foreachRDD { rdd =>
rdd.foreachPartition { partition =>
val connection = createDatabaseConnection()
partition.foreach(data => connection.write(data))
connection.close()
}
}
相关推荐
奔驰的小野码1 分钟前
MySQL8.x新特性:与mysql5.x的版本区别
数据库·mysql
Dxy12393102162 分钟前
Python 装饰器详解
开发语言·python
lml48564 分钟前
MySQL高可用
数据库·mysql
录大大i5 分钟前
2_Spring【IOC容器中获取组件Bean】
java·spring
YUNYINGXIA7 分钟前
MySQL高可用
数据库·mysql
linab1129 分钟前
mybatis中的resultMap的association及collectio的使用
java·开发语言·mybatis
小芳矶25 分钟前
【全网首发】解决coze工作流批量上传excel数据文档数据重复的问题
数据库·oracle·excel
NaclarbCSDN28 分钟前
Java IO框架
开发语言·python
fanTuanye30 分钟前
Java基础知识总结(超详细整理)
java·开发语言
wu~97031 分钟前
手撕四种常用设计模式(工厂,策略,代理,单例)
java·单例模式·设计模式·代理模式·抽象工厂模式·策略模式