SparkCore编程RDD

RDD概述

中文名为弹性分布式数据集,是数据处理基本单位。代表一个弹性的,不可变,可分区,里面的数据可并行计算的集合。

RDD和Hadoop MR 的区别:

  1. RDD是先明确数据处理流程,数据在行动算子执行前实际上并未被修改
  2. MR本质上是摸石头过河,每一步操作时,数据本体已经被修改了,无法恢复。

RDD特性:

  • 一组分区:标记数据是哪个分区的
  • 一个计算每个分区的函数
  • RDD之间的依赖关系
  • 一个分区器:即RDD的分片函数
  • 一个优先列表:移动数据不如移动计算

Spark编程

RDD的创建

  1. 使用IDEA创建一个spark项目
  2. 添加spark-core_2.12依赖,版本3.3.1
  3. 在setting-plugins搜索Scala插件,方便查询Scala代码
  4. 如果代码出现winutils找不到异常时,需要配置一下windows对于Hadoop的依赖
  5. 开始编程
    • 创建RDD_init的class文件,定义main方法
    • new JavaSparkContext(), 设置SparkConf().setMaster("local[*]").setAppName("rdd");得到sc
    • sc获取RDD的方法
      • textFile(文件路径)
      • parallelize(list集合)

分区

为了能够看到分区的情况,不使用collect收集,而是采用saveAsTextFile方法来看并行操作的具体情形。local[2]代表并行度,也会影响文件的数量,这个是分区数的上限。也可以通过parallelize(list, 分区数)方法来控制分区数量,而不影响分区的上限。

内存数据分区策略:如果数据个数无法被分区数整除,多出来的数据优先分配给后面的分区。

scala 复制代码
def positions()={
	val start = ((下标*数据个数)/分区数).toInt
	val end = ((下标+1)* 数据个数/ 分区数).toInt
}

从集合获取数据时,负载均衡,尽量保证每个分区的数据数量是一致的,后面的分区的数据会比前面的多。

MR和spark的切分区别:

  • MR希望每个任务跑到数据量级尽量多,因为MR底层是单线程多进程的,并发没有那么方便。
  • spark希望跑到任务尽量多,即负载均衡,并发量高,因为spark底层是多进程多线程的。

文件数据分区策略:分区数量最低为2,最高为环境CPU数量。分区数量根据文件大小来计算得出,跟MR切片规则很类似。大致是这样:

  • goalS ize = 文件大小(字节) / 分区数量,最小为1
  • 分区数量 = 文件大小 / goalSize
相关推荐
杨DaB16 分钟前
【SpringBoot】Swagger 接口工具
java·spring boot·后端·restful·swagger
YA33317 分钟前
java基础(九)sql基础及索引
java·开发语言·sql
桦说编程36 分钟前
方法一定要有返回值 \ o /
java·后端·函数式编程
小李是个程序1 小时前
登录与登录校验:Web安全核心解析
java·spring·web安全·jwt·cookie
David爱编程1 小时前
Java 创建线程的4种姿势,哪种才是企业级项目的最佳实践?
java·后端
hrrrrb2 小时前
【Java Web 快速入门】十一、Spring Boot 原理
java·前端·spring boot
Java微观世界2 小时前
Object核心类深度剖析
java·后端
MrSYJ2 小时前
为什么HttpSecurity会初始化创建两次
java·后端·程序员
hinotoyk2 小时前
TimeUnit源码分享
java
AAA修煤气灶刘哥3 小时前
Java+AI 驱动的体检报告智能解析:从 PDF 提取到数据落地全指南
java·人工智能·后端