spark-sql 参数配置与调优

动态分区配置

set hive.exec.dynamic.partition=true; --开启动态分区

set hive.exec.dynamic.partition.mode=nonstrict; --允许所有分区是动态的

set hive.exec.max.dynamic.partitions.pernode=1000; --每个mapper/reducer可以创建的最大动态分区数

--set hive.exec.dynamic.partitions=10000; 这个可不要

设置计算引擎

set hive.execution.engine=spark;

设置spark提交模式

set spark.master=yarn-cluster;

设置作业名称

set spark.app.name=${name};

开启笛卡尔积

set spark.sql.crossJoin.enabled =true

spark精度丢失,导致列查询为null的解决办法

默认是true

设置成false

set spark.sql.decimalOperations.allowPrecisionLoss = false

开启动态资源分配

set spark.dynamicAllocation.enabled = true //开启动态资源分配

set spark.dynamicAllocation.minExecutors=1 //每个Application最⼩分配的executor数

set spark.dynamicAllocation.maxExecutors =20 //每个Application最⼤并发分配的executor数

配置广播变量

set spark.sql.autoBroadcastJoinThreshold 默认是开启的 101024 1024

禁用 设置为-1

设置执行器内存

set spark.executor.memory=8G

设置限制 Spark 驱动程序(driver)在向客户端返回结果时的最大大小

set spark.driver.maxResultSize=2G

设置并行度

spark.default.parallelism对于处理RDD有效;

spark.sql.shuffle.partitions

该参数用于设置Spark作业总共要用多少个Executor进程来执行

set spark.executor.instances=25;

设置执行器计算核个数

set spark.executor.cores=4;

设置每个executor的jvm堆外内存

set spark.yarn.executor.memoryOverhead=2048;

相关推荐
计算机编程-吉哥22 分钟前
大数据毕业设计-基于Python的中文起点网小说数据分析平台(高分计算机毕业设计选题·定制开发·真正大数据)
大数据·hadoop·计算机毕业设计选题·机器学习毕业设计·大数据毕业设计·大数据毕业设计选题推荐·大数据毕设项目
鸿乃江边鸟2 小时前
Flink中的 BinaryRowData 以及大小端
大数据·sql·flink
MicroTech20252 小时前
微算法科技(NASDAQ: MLGO)采用量子相位估计(QPE)方法,增强量子神经网络训练
大数据·算法·量子计算
b***25112 小时前
深圳比斯特|多维度分选:圆柱电池品质管控的自动化解决方案
大数据·人工智能
Flink_China3 小时前
Flink Agents:基于Apache Flink的事件驱动AI智能体框架
大数据·flink
jiedaodezhuti4 小时前
Flink Checkpoint失败问题分析与解决方案
大数据·flink
海豚调度5 小时前
(二)一文读懂数仓设计的核心规范:从层次、类型到生命周期
大数据·数仓·技术规范
在未来等你5 小时前
Elasticsearch面试精讲 Day 15:索引别名与零停机更新
大数据·分布式·elasticsearch·搜索引擎·面试
IT研究室5 小时前
大数据毕业设计选题推荐-基于大数据的国内旅游景点游客数据分析系统-Spark-Hadoop-Bigdata
大数据·hadoop·spark·毕业设计·源码·数据可视化·bigdata
XueminXu6 小时前
Spark提交任务的资源配置和优化
spark·并行度·spark-submit·driver-memory·num-executors·executor-memory·executor-cores