【spark】远程debug spark任务(含有pyspark)

--master yarn--master client都是可以的。

shell 复制代码
spark-submit \
--master yarn \
--deploy-mode client \
--name "test-remote-debug" \
--conf "spark.driver.extraJavaOptions=-agentlib:jdwp=transport=dt_socket,server=y,suspend=n,address=5005" \
--conf "spark.executor.extraJavaOptions=-agentlib:jdwp=transport=dt_socket,server=y,suspend=n,address=*:5006" \
/home/user/test.py

idea中如下配置,当然需要配置两个debug任务并同时启动。

运行spark-submit后再在idea中debug即可。

相关推荐
zml.~1 小时前
Spark 数据分析:从核心原理到企业级实战全解析
大数据·数据挖掘·数据分析·spark
zml.~1 小时前
大数据分析实战:基于 Spark 的新能源汽车全链路数据分析指南
大数据·数据分析·spark·汽车
talen_hx2961 天前
《零基础入门Spark》学习笔记 Day 12
笔记·学习·spark
橘子编程2 天前
Spark全栈指南:从入门到精通
大数据·分布式·spark
zxfBdd2 天前
Spark Map算子异常处理方法
大数据·分布式·spark
talen_hx2966 天前
《零基础入门Spark》学习笔记 Day 11
笔记·学习·spark
howard20057 天前
2.2.2.2 使用Spark单机版环境
spark·单机版环境
howard20057 天前
2.2.2.3 Spark实战:词频统计
spark·pyspark·词频统计·spark-shell
howard20057 天前
2.2.2.1 搭建Spark单机版环境
spark·单机版环境
howard20057 天前
2.1 初识Spark
spark·组件·特点·应用场景