spark组件-spark core(批处理)-rdd创建

1. 从集合创建‌

通过 SparkContext.parallelize() 或 makeRDD() 将本地集合(如 List)转换为 RDD,可手动指定分区数:

java 复制代码
List<String> list = Arrays.asList("hello", "hi", "spark", "world", "hi");
JavaRDD<String> javaRDD = sc.parallelize(list, 2);

2. 从外部存储创建‌

支持 HDFS、本地文件系统等数据源,如

java 复制代码
JavaRDD<String> stringRDD = sc.textFile("hdfs://path/file.txt") ‌

3. 从其他 RDD 转换‌

通过转换算子(如 map、groupByKey)生成新 RDD,形成血缘关系链。

例子

java 复制代码
package com.spark.qichsiii.core.a_rdd_create;

import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;

import java.util.Arrays;
import java.util.List;

public class RddCreationFromCollection {
    public static void main(String[] args) {
        // 1.创建配置对象
        SparkConf conf = new SparkConf().setMaster("local[*]").setAppName("RddCreation");
        // 2.创建sparkContext
        JavaSparkContext sc = new JavaSparkContext(conf);
        // 3.编写代码
        // a.集合创建
        JavaRDD<String> stringRDD = sc.parallelize(Arrays.asList("hello","spark"));
		// b.从外部存储创建
		//JavaRDD<String> stringRDD = sc.textFile("input") ‌
        List<String> collect = stringRDD.collect();

        for(String s: collect){
            System.out.println(s);
        }
        // 4.关闭sc
        sc.stop();
    }
}
相关推荐
松☆1 分钟前
Flutter 与 OpenHarmony 数据持久化协同方案:从 Shared Preferences 到分布式数据管理
分布式·flutter
wasp52011 分钟前
Hudi 元数据管理分析
java·大数据·linux·hudi·数据湖·数据湖仓
踏浪无痕13 分钟前
准备手写Simple Raft(四):日志终于能"生效"了
分布式·后端
海绵波波10718 分钟前
Elasticsearch(ES)支持在查询时对时间字段进行筛选
大数据·elasticsearch·搜索引擎
xixixi7777718 分钟前
移动通信的基石——公共陆地移动网络
大数据·网络·安全·通信·plmn
B站计算机毕业设计之家29 分钟前
机器学习:python智能电商推荐平台 大数据 spark(Django后端+Vue3前端+协同过滤 毕业设计/实战 源码)✅
大数据·python·spark·django·推荐算法·电商
龙仔72536 分钟前
实现分布式读写集群(提升两台服务器的性能,支持分片存储+并行读写),Redis Cluster(Redis集群模式)并附排错过程
服务器·redis·分布式
TDengine (老段)39 分钟前
TDengine 运维命令 SCAN 使用手册
大数据·运维·数据库·物联网·时序数据库·tdengine·涛思数据
mn_kw41 分钟前
Spark Shuffle 深度解析与参数详解
大数据·分布式·spark
码农很忙1 小时前
如何选择合适的 Diskless Kafka
分布式·kafka