【spark】远程debug spark任务(含有pyspark)

--master yarn--master client都是可以的。

shell 复制代码
spark-submit \
--master yarn \
--deploy-mode client \
--name "test-remote-debug" \
--conf "spark.driver.extraJavaOptions=-agentlib:jdwp=transport=dt_socket,server=y,suspend=n,address=5005" \
--conf "spark.executor.extraJavaOptions=-agentlib:jdwp=transport=dt_socket,server=y,suspend=n,address=*:5006" \
/home/user/test.py

idea中如下配置,当然需要配置两个debug任务并同时启动。

运行spark-submit后再在idea中debug即可。

相关推荐
B站计算机毕业设计之家15 小时前
大数据:基于python唯品会商品数据可视化分析系统 Flask框架 requests爬虫 Echarts可视化 数据清洗 大数据技术(源码+文档)✅
大数据·爬虫·python·信息可视化·spark·flask·唯品会
沧海寄馀生15 小时前
Apache Hadoop生态组件部署分享-Spark
大数据·hadoop·分布式·spark·apache
yumgpkpm15 小时前
接入Impala、Hive 的AI平台、开源大模型的国内厂商(星环、Doris、智谱AI、Qwen、DeepSeek、 腾讯混元、百川智能)
人工智能·hive·hadoop·zookeeper·spark·开源·hbase
鹿衔`1 天前
CDH 6.3.2 集群外挂部署 Spark 3.5.7 连接 Paimon 1.1.1 (二)
大数据·分布式·spark
嘉禾望岗5032 天前
spark计算框架与RDD特性介绍
大数据·分布式·spark
智海观潮2 天前
SparkSQL真的不支持存储NullType类型数据到Parquet吗?
大数据·spark
灯下夜无眠2 天前
spark集群文件分发问题
大数据·分布式·spark
Thomas21432 天前
pyspark3.5给paimon1.2的表打tag报错 spark_catalog is not a ProcedureCatalog
大数据·分布式·spark
路边草随风2 天前
使用SparkLauncher发布k8s作业
云原生·容器·spark·kubernetes
士心凡2 天前
数据仓库教程
大数据·数据仓库·spark