spark Rdd的创建方式

spark rdd的创建方式

spark rdd(弹性分布式数据集)有多种创建方式

简单来说有三种

1.从本地集合创建

val numbers = sc.parallelize(Array(1,2,3,4))

2.从文件系统读取

val testFile = sc.textFile("hdfs://localhost:9000/user/hadoop/data.txt")

3.从现有rdd创建而来

val numbersRDD = sc.parallelize(Array(1,2,3,4,5))

val doubleNumbersRDD = numbersRDD.map(_ * 2)

总的来说 rdd这里指的是分布式数据集

所以创建 都需要来自于其他数据集合

所以其他会有 从数据库 网络源 其他数据源

广播变量或者累加器

这里的rdd指的是分布式数据集 就是数据切片,而计算逻辑,叫做rdd算子。

相关推荐
Hello.Reader2 分钟前
Flink DataGen SQL Connector 本地造数、压测、边界数据与“像真数据”的生成技巧
大数据·sql·flink
安河桥畔8 分钟前
Git使用
大数据·git·elasticsearch
Hello.Reader11 分钟前
Flink SQL 压测最短闭环Print 验证正确性 + BlackHole 榨干性能上限(附 Join/Agg/TopN/UDF 模板)
大数据·sql·flink
驾数者11 分钟前
Flink SQL CDC实时同步:基于Debezium的变更数据捕获
大数据·sql·flink
徐先生 @_@|||14 分钟前
基于Spark配置+缓存策略+Junpyter Notebook 实现Spark数据加速调试
大数据·分布式·缓存·spark
合新通信 | 让光不负所托14 分钟前
边缘计算节点空间受限,用浸没式液冷光模块能同时满足小型化和高性能需求吗?
大数据·人工智能·阿里云·云计算·边缘计算
方向研究17 分钟前
金价上涨
大数据
智子喻23 分钟前
2026企业微信社群运营工具专业度排名:AI驱动下的私域增长工具实测
大数据·网络·新媒体运营·企业微信·用户运营
故乡de云29 分钟前
Gemini API的数据隔离:企业级AI应用的安全感从哪来?
大数据·人工智能
wasp52030 分钟前
Hudi Spark 集成分析
数据库·spark·hudi·数据湖