spark Rdd的创建方式

spark rdd的创建方式

spark rdd(弹性分布式数据集)有多种创建方式

简单来说有三种

1.从本地集合创建

val numbers = sc.parallelize(Array(1,2,3,4))

2.从文件系统读取

val testFile = sc.textFile("hdfs://localhost:9000/user/hadoop/data.txt")

3.从现有rdd创建而来

val numbersRDD = sc.parallelize(Array(1,2,3,4,5))

val doubleNumbersRDD = numbersRDD.map(_ * 2)

总的来说 rdd这里指的是分布式数据集

所以创建 都需要来自于其他数据集合

所以其他会有 从数据库 网络源 其他数据源

广播变量或者累加器

这里的rdd指的是分布式数据集 就是数据切片,而计算逻辑,叫做rdd算子。

相关推荐
小坏讲微服务2 分钟前
MaxWell中基本使用原理 完整使用 (第一章)
大数据·数据库·hadoop·sqoop·1024程序员节·maxwell
勇往直前plus2 小时前
ElasticSearch详解(篇一)
大数据·elasticsearch·jenkins
无心水4 小时前
【分布式利器:Kafka】1、Kafka 入门:Broker、Topic、分区 3 张图讲透(附实操命令)
分布式·kafka·topic·isr·broker·分区·生产者消费者模式java实现
九皇叔叔4 小时前
Zookeeper 基础入门与应用场景解析
分布式·zookeeper·云原生
一只小青团5 小时前
Hadoop之HDFS
大数据·hadoop·分布式
ITVV5 小时前
hadoop-3.4.1 单机伪部署
大数据·linux·hadoop
小杜谈数5 小时前
企业BI建议--数据治理平台
大数据
西岭千秋雪_5 小时前
Kafka安装和使用
java·分布式·kafka·java-zookeeper
谅望者6 小时前
数据分析笔记07:Python编程语言介绍
大数据·数据库·笔记·python·数据挖掘·数据分析
qq_281317477 小时前
Kafka
分布式·kafka