2023_Spark_实验十九:SparkStreaming入门案例

SparkStreaming入门案例

一、准备工作
二、任务分析
三、官网案例
四、开发NetWordCount

一、准备工作


  • 实验环境:netcat
  • 安装nc:yum install -y nc

二、任务分析


将nc作为服务器端,用户产生数据;启动sparkstreaming案例中的客户端程序,监听服务器端发送过来的数据,并对其数据进行词频统计,即为流式的wordcount入门程序

三、官网案例


启动nc作为服务器端,执行:nc -l 1234,并输入测试数据,如图所示:

  • 启动客户端,执行:
    bin/run-example streaming.NetworkWordCount localhost 1234

注意):如果要执行本例,必须确保机器 cpu 核数大于 2

四、开发NetWordCount

  1. 创建maven工程
  2. 添加maven依赖,即在pom.xml中添加streamming的依赖,如下(如果之前实验已经添加,就不用再添加,如果之前未添加,则需要添加该依赖)
XML 复制代码
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-streaming_2.12</artifactId>
<version>2.1.1</version>
</dependency>

3.开发NetWordCount程序

Scala 复制代码
import org.apache.spark.SparkConf
import org.apache.spark.storage.StorageLevel
import org.apache.spark.streaming.dstream.{DStream, ReceiverInputDStream}
import org.apache.spark.streaming.{Seconds, StreamingContext}

object StreamingTest {
def main(args: Array[String]): Unit = {
val sparkConf = newSparkConf().setMaster("local[2]").setAppName("StreamingTest")
val streamingContext = new StreamingContext(sparkConf, Seconds(5))

// 创建DStream对象,并链接到nc服务器端
val ris: ReceiverInputDStream[String] = streamingContext.socketTextStream("192.168.245.110", 1234,StorageLevel.MEMORY_AND_DISK)
// 采集数据,并处理数据
val ds: DStream[String] = ris.flatMap(_.split(" "))
println(ris)
// 统计单词
val resultDS: DStream[(String, Int)] = ds.map(x => (x, 1)).reduceByKey(_ + _)
// 打印结果
resultDS.print()
// 启动实时计算
streamingContext.start()
// 等待计算结束
streamingContext.awaitTermination()
}
}

4.先在虚拟机上启动nc服务器:nc -l 1234,并输入测试数据,如图
5.然后运行程序
6.运行结果如下

参考:
https://www.shuzhiduo.com/A/gVdneZLa5W/

相关推荐
雨大王51216 分钟前
国内外工业AI原生企业对比分析与实战案例解读
大数据
开源能源管理系统1 小时前
MyEMS开源能源管理系统:赋能石膏制品制造业绿色低碳转型与降本增效
大数据·开源·能源·能源管理系统·石膏
得赢科技1 小时前
2025年GEO营销应用白皮书 - 服务业区域推广深度剖析
大数据·人工智能
GIS数据转换器1 小时前
基于GIS的宠物救助服务平台
大数据·人工智能·科技·机器学习·无人机·智慧城市·宠物
Solar20251 小时前
工程材料企业如何借助数字化工具突破获客瓶颈:方法论与实践路径
大数据·人工智能·物联网
焦糖玛奇朵婷2 小时前
就医陪诊小程序|从软件开发视角看实用度✨
java·大数据·jvm·算法·小程序
【赫兹威客】浩哥2 小时前
【赫兹威客】完全分布式ZooKeeper测试教程
分布式·zookeeper·云原生
一晌小贪欢2 小时前
Python 魔术方法实战:深度解析 Queue 模块的模块化设计与实现
开发语言·分布式·爬虫·python·python爬虫·爬虫分布式
【赫兹威客】浩哥2 小时前
【赫兹威客】伪分布式Flink测试教程
大数据·分布式·flink
悟能不能悟2 小时前
什么是因果大模型
大数据·人工智能