Spark-Streaming核心编程(四)总结

有状态转化操作 - UpdateStateByKey

功能描述

UpdateStateByKey原语用于在DStream中跨批次维护状态,例如流计算中的累加wordcount。

它允许对一个状态变量进行访问和更新,适用于键值对形式的DStream。

工作原理

给定一个由(键,事件)对构成的DStream,并传递一个指定如何根据新的事件更新每个键对应状态的函数。

构建出一个新的DStream,其内部数据为(键,状态)对。

使用步骤

定义状态:状态可以是一个任意的数据类型。

定义状态更新函数:使用此函数阐明如何使用之前的状态和来自输入流的新值对状态进行更新。

配置检查点目录:updateStateByKey需要使用检查点来保存状态。

示例代码

scalaCopy Code

val updateFunc = (values: Seq[Int], state: Option[Int]) => {

val currentCount = values.foldLeft(0)(_ + _)

val previousCount = state.getOrElse(0)

Some(currentCount + previousCount)

}

val sparkConf = new SparkConf().setMaster("local[*]").setAppName("update")

val ssc = new StreamingContext(sparkConf, Seconds(5))

ssc.checkpoint("./ck")

val lines = ssc.socketTextStream("node01", 9999)

val words = lines.flatMap(_.split(" "))

val pairs = words.map((_, 1))

val stateDStream = pairs.updateStateByKeyInt](updateFunc)

stateDStream.print()

ssc.start()

ssc.awaitTermination()

窗口操作 - Window Operations

功能描述

窗口操作允许设置窗口的大小和滑动窗口的间隔,以动态地获取当前Streaming的状态。

参数说明

窗口时长:计算内容的时间范围。

滑动步长:触发计算的间隔。

这两者都必须为采集周期大小的整数倍。

示例代码

scalaCopy Code

val sparkConf = new SparkConf().setMaster("local[*]").setAppName("window")

val ssc = new StreamingContext(sparkConf, Seconds(3))

ssc.checkpoint("./ck")

val lines = ssc.socketTextStream("node01", 9999)

val words = lines.flatMap(_.split(" "))

val pairs = words.map((_, 1))

val wordCounts = pairs.reduceByKeyAndWindow((a: Int, b: Int) => (a + b), Seconds(12), Seconds(6))

wordCounts.print()

ssc.start()

ssc.awaitTermination()

DStream 输出操作

输出操作的重要性

输出操作指定了对流数据经转化操作得到的数据所要执行的操作。

与RDD中的惰性求值类似,如果没有执行输出操作,DStream将不会被求值。

常见的输出操作

print():在驱动结点上打印DStream中每一批次数据的最开始10个元素,用于开发和调试。

saveAsTextFiles(prefix, [suffix]):以text文件形式存储DStream的内容。

saveAsObjectFiles(prefix, [suffix]):以Java对象序列化的方式存储数据。

saveAsHadoopFiles(prefix, [suffix]):将数据保存为Hadoop文件。

foreachRDD(func):最通用的输出操作,对DStream中的每个RDD运行任意计算。可以将数据推送到外部系统,如MySQL数据库。

使用注意事项

连接操作不能写在driver层面(序列化问题)。

避免在foreach中对每个RDD中的每条数据都创建连接,效率较低。

可以使用foreachPartition在分区层面创建连接。

相关推荐
SelectDB1 小时前
浩瀚深度:从 ClickHouse 到 Doris,支撑单表 13PB、534 万亿行的超大规模数据分析场景
大数据·数据库·apache
SelectDB1 小时前
公开免费!Apache Doris & SelectDB 培训与认证课程正式上线
大数据·数据库·apache
mykyle1 小时前
Elasticsearch-8.17.0 centos7安装
大数据·elasticsearch·jenkins
大视码垛机1 小时前
协作机器人掀起工厂革命:码垛场景如何用数据重塑制造业命脉?
大数据·数据库·人工智能
StarRocks_labs2 小时前
Lakehouse x AI ,打造智能 BI 新体验
大数据·starrocks·人工智能·iceberg·lakehouse·智能bi·湖仓分析
IvanCodes3 小时前
三、Spark 运行环境部署:全面掌握四种核心模式
大数据·分布式·spark
躲在云朵里`4 小时前
Git的使用
大数据·git·elasticsearch
Aurora_NeAr4 小时前
大数据之路:阿里巴巴大数据实践——实时技术与数据服务
大数据·后端
牛客企业服务6 小时前
AI面试与传统面试的核心差异解析——AI面试如何提升秋招效率?
java·大数据·人工智能·python·面试·职场和发展·金融
武子康7 小时前
大数据-52 Kafka 架构全解析:高吞吐、高可用分布式消息系统的核心奥秘
大数据·后端·kafka