spark-sql 参数配置与调优

动态分区配置

set hive.exec.dynamic.partition=true; --开启动态分区

set hive.exec.dynamic.partition.mode=nonstrict; --允许所有分区是动态的

set hive.exec.max.dynamic.partitions.pernode=1000; --每个mapper/reducer可以创建的最大动态分区数

--set hive.exec.dynamic.partitions=10000; 这个可不要

设置计算引擎

set hive.execution.engine=spark;

设置spark提交模式

set spark.master=yarn-cluster;

设置作业名称

set spark.app.name=${name};

开启笛卡尔积

set spark.sql.crossJoin.enabled =true

spark精度丢失,导致列查询为null的解决办法

默认是true

设置成false

set spark.sql.decimalOperations.allowPrecisionLoss = false

开启动态资源分配

set spark.dynamicAllocation.enabled = true //开启动态资源分配

set spark.dynamicAllocation.minExecutors=1 //每个Application最⼩分配的executor数

set spark.dynamicAllocation.maxExecutors =20 //每个Application最⼤并发分配的executor数

配置广播变量

set spark.sql.autoBroadcastJoinThreshold 默认是开启的 101024 1024

禁用 设置为-1

设置执行器内存

set spark.executor.memory=8G

设置限制 Spark 驱动程序(driver)在向客户端返回结果时的最大大小

set spark.driver.maxResultSize=2G

设置并行度

spark.default.parallelism对于处理RDD有效;

spark.sql.shuffle.partitions

该参数用于设置Spark作业总共要用多少个Executor进程来执行

set spark.executor.instances=25;

设置执行器计算核个数

set spark.executor.cores=4;

设置每个executor的jvm堆外内存

set spark.yarn.executor.memoryOverhead=2048;

相关推荐
石像鬼₧魂石1 小时前
22端口(OpenSSH 4.7p1)渗透测试完整复习流程(含实战排错)
大数据·网络·学习·安全·ubuntu
TDengine (老段)2 小时前
TDengine Python 连接器进阶指南
大数据·数据库·python·物联网·时序数据库·tdengine·涛思数据
数据猿4 小时前
【金猿CIO展】如康集团CIO 赵鋆洲:数智重塑“顶牛”——如康集团如何用大数据烹饪万亿肉食产业的未来
大数据
zxsz_com_cn6 小时前
设备预测性维护的意义 工业设备预测性维护是什么
大数据
samLi06207 小时前
【数据集】中国杰出青年名单数据集(1994-2024年)
大数据
一个天蝎座 白勺 程序猿7 小时前
KingbaseES 处理 PL/SQL 运行时错误全解析:从异常捕获到异常处理的实践指南
数据库·sql·oracle·kingbasees
成长之路5147 小时前
【数据集】分地市旅游收入数据集(2000-2024年)
大数据·旅游
大厂技术总监下海8 小时前
用户行为分析怎么做?ClickHouse + 嵌套数据结构,轻松处理复杂事件
大数据·数据结构·数据库
大厂技术总监下海8 小时前
大数据生态的“主动脉”:RocketMQ 如何无缝桥接 Flink、Spark 与业务系统?
大数据·开源·rocketmq
2501_933670798 小时前
2026年中专大数据专业可考取的证书
大数据