spark Rdd的创建方式

spark rdd的创建方式

spark rdd(弹性分布式数据集)有多种创建方式

简单来说有三种

1.从本地集合创建

val numbers = sc.parallelize(Array(1,2,3,4))

2.从文件系统读取

val testFile = sc.textFile("hdfs://localhost:9000/user/hadoop/data.txt")

3.从现有rdd创建而来

val numbersRDD = sc.parallelize(Array(1,2,3,4,5))

val doubleNumbersRDD = numbersRDD.map(_ * 2)

总的来说 rdd这里指的是分布式数据集

所以创建 都需要来自于其他数据集合

所以其他会有 从数据库 网络源 其他数据源

广播变量或者累加器

这里的rdd指的是分布式数据集 就是数据切片,而计算逻辑,叫做rdd算子。

相关推荐
IT观测3 分钟前
选择可信数据空间安全服务商:源堡科技以风险管控能力破局
大数据·科技·安全
CNRio25 分钟前
Day 51:Git的高级技巧:使用Git的reflog恢复丢失的提交
大数据·git·elasticsearch
LDG_AGI26 分钟前
【推荐系统】深度学习训练框架(二十二):PyTorch2.5 + TorchRec1.0超大规模模型分布式推理实战
人工智能·分布式·深度学习
第七在线29 分钟前
Style Union携手第七在线 全面推进商品管理智能化升级
大数据
kuankeTech35 分钟前
海南封关供应链重构:外贸ERP如何成为企业的“数字海关”
大数据·数据库·人工智能·重构·软件开发·erp
WZGL123035 分钟前
乡村振兴背景下丨农村养老服务的价值重构与路径创新
大数据·人工智能·科技·安全·智能家居
Linux猿37 分钟前
2025年亚马逊全球线上商采趋势与区域洞察报告 | 附PDF
大数据·人工智能·研报精选
2503_9469718639 分钟前
【SystemDesign/HA】2025年度高可用分布式仿真节点与预测模型容灾演练配置 (Disaster Recovery Config)
大数据·分布式·算法·系统架构·数据集
YangYang9YangYan43 分钟前
2026年大专大数据与会计专业核心证书推荐
大数据·学习·数据分析
Lethehong1 小时前
TextIn 赋能!Dify+DeepSeek 高效搭建新能源汽车销量可视化工作流
大数据·前端·python·textin·蓝耘元生代·蓝耘maas