spark Rdd的创建方式

spark rdd的创建方式

spark rdd(弹性分布式数据集)有多种创建方式

简单来说有三种

1.从本地集合创建

val numbers = sc.parallelize(Array(1,2,3,4))

2.从文件系统读取

val testFile = sc.textFile("hdfs://localhost:9000/user/hadoop/data.txt")

3.从现有rdd创建而来

val numbersRDD = sc.parallelize(Array(1,2,3,4,5))

val doubleNumbersRDD = numbersRDD.map(_ * 2)

总的来说 rdd这里指的是分布式数据集

所以创建 都需要来自于其他数据集合

所以其他会有 从数据库 网络源 其他数据源

广播变量或者累加器

这里的rdd指的是分布式数据集 就是数据切片,而计算逻辑,叫做rdd算子。

相关推荐
m0_7162550014 小时前
二、Hadoop 面试必背 | 三、Hive 面试必背
大数据·hadoop·面试
zz07232014 小时前
Elasticsearch
大数据·elasticsearch·搜索引擎
LoneEon14 小时前
Kafka集群搭建指南:KRaft模式彻底摒弃Zookeeper
分布式·kafka·centos
薪火铺子14 小时前
分布式锁深度实战:从 Redis 到 Zookeeper 深度解析
redis·分布式·zookeeper
薪火铺子15 小时前
ElasticSearch 聚合查询与性能优化实战
大数据·elasticsearch·性能优化
CableTech_SQH15 小时前
F5G全光网络二层扁平架构技术拆解:OLT+ODN+ONU全链路原理详解
大数据·网络·5g·信息与通信
2601_9499369615 小时前
2026年职业资格证书趋势分析:专业化与数字化融合视角
大数据
学习中.........15 小时前
高并发架构下的 Kafka 与消息队列核心机制
分布式·kafka
Han.miracle15 小时前
分布式部署项目
分布式
努力努力再努力wz15 小时前
【Redis 入门系列】为什么需要 Redis?一文串起缓存、分布式、读写分离、分库分表与微服务
数据库·redis·分布式·sql·mysql·缓存·微服务