spark-sql 参数配置与调优

动态分区配置

set hive.exec.dynamic.partition=true; --开启动态分区

set hive.exec.dynamic.partition.mode=nonstrict; --允许所有分区是动态的

set hive.exec.max.dynamic.partitions.pernode=1000; --每个mapper/reducer可以创建的最大动态分区数

--set hive.exec.dynamic.partitions=10000; 这个可不要

设置计算引擎

set hive.execution.engine=spark;

设置spark提交模式

set spark.master=yarn-cluster;

设置作业名称

set spark.app.name=${name};

开启笛卡尔积

set spark.sql.crossJoin.enabled =true

spark精度丢失,导致列查询为null的解决办法

默认是true

设置成false

set spark.sql.decimalOperations.allowPrecisionLoss = false

开启动态资源分配

set spark.dynamicAllocation.enabled = true //开启动态资源分配

set spark.dynamicAllocation.minExecutors=1 //每个Application最⼩分配的executor数

set spark.dynamicAllocation.maxExecutors =20 //每个Application最⼤并发分配的executor数

配置广播变量

set spark.sql.autoBroadcastJoinThreshold 默认是开启的 101024 1024

禁用 设置为-1

设置执行器内存

set spark.executor.memory=8G

设置限制 Spark 驱动程序(driver)在向客户端返回结果时的最大大小

set spark.driver.maxResultSize=2G

设置并行度

spark.default.parallelism对于处理RDD有效;

spark.sql.shuffle.partitions

该参数用于设置Spark作业总共要用多少个Executor进程来执行

set spark.executor.instances=25;

设置执行器计算核个数

set spark.executor.cores=4;

设置每个executor的jvm堆外内存

set spark.yarn.executor.memoryOverhead=2048;

相关推荐
字节跳动数据平台3 小时前
5000 字技术向拆解 | 火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
武子康8 小时前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
阿里云大数据AI技术1 天前
用 SQL 调大模型?Hologres + 百炼,让数据开发直接“对话”AI
sql·llm
字节跳动数据平台1 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术1 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
武子康1 天前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
武子康2 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天2 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
武子康4 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive
肌肉娃子5 天前
20260227.spark.Spark 性能刺客:千万别在 for 循环里写 withColumn
spark