spark-sql 参数配置与调优

动态分区配置

set hive.exec.dynamic.partition=true; --开启动态分区

set hive.exec.dynamic.partition.mode=nonstrict; --允许所有分区是动态的

set hive.exec.max.dynamic.partitions.pernode=1000; --每个mapper/reducer可以创建的最大动态分区数

--set hive.exec.dynamic.partitions=10000; 这个可不要

设置计算引擎

set hive.execution.engine=spark;

设置spark提交模式

set spark.master=yarn-cluster;

设置作业名称

set spark.app.name=${name};

开启笛卡尔积

set spark.sql.crossJoin.enabled =true

spark精度丢失,导致列查询为null的解决办法

默认是true

设置成false

set spark.sql.decimalOperations.allowPrecisionLoss = false

开启动态资源分配

set spark.dynamicAllocation.enabled = true //开启动态资源分配

set spark.dynamicAllocation.minExecutors=1 //每个Application最⼩分配的executor数

set spark.dynamicAllocation.maxExecutors =20 //每个Application最⼤并发分配的executor数

配置广播变量

set spark.sql.autoBroadcastJoinThreshold 默认是开启的 101024 1024

禁用 设置为-1

设置执行器内存

set spark.executor.memory=8G

设置限制 Spark 驱动程序(driver)在向客户端返回结果时的最大大小

set spark.driver.maxResultSize=2G

设置并行度

spark.default.parallelism对于处理RDD有效;

spark.sql.shuffle.partitions

该参数用于设置Spark作业总共要用多少个Executor进程来执行

set spark.executor.instances=25;

设置执行器计算核个数

set spark.executor.cores=4;

设置每个executor的jvm堆外内存

set spark.yarn.executor.memoryOverhead=2048;

相关推荐
野犬寒鸦11 分钟前
MyBatis-Plus 中使用 Wrapper 自定义 SQL
java·数据库·后端·sql·mybatis
~ 小团子2 小时前
每日一SQL 【游戏玩法分析 IV】
数据库·sql·游戏
Edingbrugh.南空8 小时前
Flink自定义函数
大数据·flink
gaosushexiangji9 小时前
利用sCMOS科学相机测量激光散射强度
大数据·人工智能·数码相机·计算机视觉
无级程序员12 小时前
大数据平台之ranger与ldap集成,同步用户和组
大数据·hadoop
lifallen13 小时前
Paimon 原子提交实现
java·大数据·数据结构·数据库·后端·算法
TDengine (老段)13 小时前
TDengine 数据库建模最佳实践
大数据·数据库·物联网·时序数据库·tdengine·涛思数据
张先shen13 小时前
Elasticsearch RESTful API入门:全文搜索实战(Java版)
java·大数据·elasticsearch·搜索引擎·全文检索·restful
Elastic 中国社区官方博客13 小时前
Elasticsearch 字符串包含子字符串:高级查询技巧
大数据·数据库·elasticsearch·搜索引擎·全文检索·lucene
张先shen14 小时前
Elasticsearch RESTful API入门:全文搜索实战
java·大数据·elasticsearch·搜索引擎·全文检索·restful