【Spark精讲】性能优化:并行度

Reduce端并行度

  • RDD:
    • 参数:spark.default.parallelism
    • 手动:groupByKey(10),10即为并行度
  • Spark SQL:
    • 参数:spark.sql.shuffle.partitions
  • Hive on Spark:

1.控制reduce个数的方式与参数

1.1.首先可以通过参数直接控制最终reduce的个数,使用参数mapred.reduce.tasks

hive> set mapred.reduce.tasks ;

mapred.reduce.tasks=-1 --官方默认值-1,表示不人为设置reduce的个数,实际这种方式用的也少。

1.2.在hive中如果不指定reduce个数的情况下,Hive会猜测确定一个reduce个数,基于以下两个设定

1.set hive.exec.reducers.bytes.per.reducer=300000000 --我们公司默认值 300MB

注意:在hive 0.14.0之前默认hive.exec.reducers.bytes.per.reducer默认值是1GB,每个reduce最多处理1GB。

但是在之后版本默认值都是256Mb。这里我们公司用的是300Mb。为什么300Mb写的是300*1000*1000?因为网络传输中用的1000,而不是1024机制。

2.set hive.exec.reducers.max=1009 --我们公司默认值,这个值一般不会修改。

注意,在hive 0.14.0之前默认是999,之后是1009,所以我们公司的也是官方默认值。

3.reduce计算方式:计算reducer数的公式很简单

Num=min(hive.exec.reducers.max,map输出数据量/hive.exec.reducers.bytes.per.reducer)

参考:真正让你明白Hive参数调优系列2:如何控制reduce个数与参数调优_hive.exec.reducers.bytes.per.reducer-CSDN博客

Map端加载数据的并行度

  • textFile等算子加载数据源,如果指定了minPartitions,如果最终切分的split数据大小小于blockSize,则会使用该大小进行最终切分,也就是切出来比blockSize更小的split,相当于增加了并行度。
  • hive on spark:开启合并小文件后,并行度降低。

-- 每个Map最大输入大小,

hive> set mapred.max.split.size;

mapred.max.split.size=256000000 这也是官方默认值

-- 每个Map最小输入大小

hive> set mapred.min.split.size;

mapred.min.split.size=10000000 这也是官方默认值

hive> set dfs.block.size;

dfs.block.size=134217728 我们集群默认hdfs的block块大小是128Mb,但注意这个参数通过hive设置更改实际没有用的,只能hdfs设置。

参考:真正让你明白Hive参数调优系列1:控制map个数与性能调优参数_mapred.min.split.size.per.node-CSDN博客

主动调整分区数量

使用重分区算子:repartition()或者coalesce()

官方推荐,根据应用分配的CPU的情况,分区数量可以为CPU核数的2~3倍。

需要注意的重要一点是,Spark repartition()coalesce() 是效率低下的操作,因为它们会在许多分区中打乱数据,因此尽量减少重新分区。

Spark RDD coalesce() 仅用于减少分区数量。 这是 repartition() 的优化或改进版本,其中使用合并的数据在分区之间的移动较低。

Scala 复制代码
/** repartition */
val rdd2: RDD[Int] = rdd1.repartition(4)
println("Repartition size:" + rdd2.partitions.size)
//保存
rdd2.saveAsTextFile("data/output/re-partition")


/** coalesce分区算子*/
val rdd3: RDD[Int] = rdd1.coalesce(4)
println("Repartition size:" + rdd3.partitions.size)
//保存
rdd3.saveAsTextFile("data/output/coalesce")
相关推荐
桃林春风一杯酒3 小时前
HADOOP_HOME and hadoop.home.dir are unset.
大数据·hadoop·分布式
桃木山人3 小时前
BigData File Viewer报错
大数据·java-ee·github·bigdata
B站计算机毕业设计超人3 小时前
计算机毕业设计Python+DeepSeek-R1高考推荐系统 高考分数线预测 大数据毕设(源码+LW文档+PPT+讲解)
大数据·python·机器学习·网络爬虫·课程设计·数据可视化·推荐算法
数造科技4 小时前
紧随“可信数据空间”政策风潮,数造科技正式加入开放数据空间联盟
大数据·人工智能·科技·安全·敏捷开发
逸Y 仙X7 小时前
Git常见命令--助力开发
java·大数据·git·java-ee·github·idea
caihuayuan48 小时前
PHP建立MySQL持久化连接(长连接)及mysql与mysqli扩展的区别
java·大数据·sql·spring
B站计算机毕业设计超人8 小时前
计算机毕业设计Hadoop+Spark+DeepSeek-R1大模型民宿推荐系统 hive民宿可视化 民宿爬虫 大数据毕业设计(源码+LW文档+PPT+讲解)
大数据·hadoop·爬虫·机器学习·课程设计·数据可视化·推荐算法
(; ̄ェ ̄)。8 小时前
在nodejs中使用ElasticSearch(二)核心概念,应用
大数据·elasticsearch·搜索引擎
一个儒雅随和的男子9 小时前
Elasticsearch除了用作查找以外,还能可以做什么?
大数据·elasticsearch·搜索引擎
Sui_Network9 小时前
Sui 如何支持各种类型的 Web3 游戏
大数据·数据库·人工智能·游戏·web3·区块链