Spark的Web界面

在顶部导航栏上,可以点击以下选项来查看不同类型的Spark应用信息:

  1. Jobs - 此视图将列出所有已提交的作业,并提供每个作业的详细信息,如作业ID、名称、开始时间、结束时间等。
  2. Stages - 此视图可以查看作业分解成的不同阶段,包括每个阶段的任务数、当前状态等。
  3. Storage - 此视图展示了数据如何在RDDs(弹性分布式数据集)之间进行分层存储,以及它们的缓存状态。
  4. Environment - 此视图列出了与Spark应用程序相关的环境变量和配置参数。
  5. Executors - 此视图提供了关于执行器的详细信息,包括内存使用情况、磁盘使用情况、任务统计等。

Apache Spark UI中的"Executors"页面,该页面提供了关于Spark应用程序中执行器的详细信息。执行器是Spark应用程序中负责执行任务的进程。以下是页面上各部分的介绍:

Summary

  • RDD Blocks: 当前存储在执行器上的RDD块数量。
  • Storage Memory: 执行器上用于存储的内存总量,以及当前已使用的存储内存。
  • Disk Used: 执行器上用于存储的磁盘空间总量,以及当前已使用的磁盘空间。
  • Cores: 执行器上可用的CPU核心数。
  • Active Tasks: 当前正在执行的任务数量。
  • Failed Tasks: 已经失败的任务数量。
  • Complete Tasks: 已经完成的任务数量。
  • Total Tasks: 执行器上总共处理的任务数量。
  • Task Time (GC Time): 执行器上所有任务的总执行时间,以及其中的垃圾回收时间。
  • Input: 任务处理的输入数据量。
  • Shuffle Read: 任务执行期间从其他执行器读取的shuffle数据量。
  • Shuffle Write: 任务执行期间写入的shuffle数据量。
  • Excluded: 被排除的执行器数量。

Executors

  • Executor ID: 执行器的唯一标识符。
  • Address: 执行器的网络地址。
  • Status: 执行器的状态,如Active(活跃)或Dead(已死)。
  • RDD Blocks: 执行器上存储的RDD块数量。
  • Storage Memory: 执行器上用于存储的内存总量,以及当前已使用的存储内存。
  • Disk Used: 执行器上用于存储的磁盘空间总量,以及当前已使用的磁盘空间。
  • Cores: 执行器上可用的CPU核心数。
  • Active Tasks: 当前正在执行的任务数量。
  • Failed Tasks: 已经失败的任务数量。
  • Complete Tasks: 已经完成的任务数量。
  • Total Tasks: 执行器上总共处理的任务数量。
  • Task Time (GC Time): 执行器上所有任务的总执行时间,以及其中的垃圾回收时间。
  • Input: 任务处理的输入数据量。
  • Shuffle Read : 任务执行期间从其他执行器读取的shuffle数据量。
  • Shuffle Write: 任务执行期间写入的shuffle数据量。
  • Thread Dump: 提供执行器的线程转储链接。
  • Heap Histogram: 提供执行器的堆内存使用情况的直方图链接。
  • Add Time: 执行器被添加到集群的时间。
  • Remove Time: 执行器从集群中移除的时间。

这个页面对于监控和调试Spark应用程序非常有用,因为它提供了关于执行器资源使用情况、任务状态和性能的详细信息。

相关推荐
IT研究室4 小时前
大数据毕业设计选题推荐-基于大数据的国家药品采集药品数据可视化分析系统-Spark-Hadoop-Bigdata
大数据·hadoop·信息可视化·spark·毕业设计·数据可视化·bigdata
道一云黑板报7 小时前
Spark生态全景图:图计算与边缘计算的创新实践
大数据·性能优化·spark·边缘计算
Lansonli7 小时前
大数据Spark(六十三):RDD-Resilient Distributed Dataset
大数据·分布式·spark
BYSJMG7 小时前
计算机毕业设计选题:基于Spark+Hadoop的健康饮食营养数据分析系统【源码+文档+调试】
大数据·vue.js·hadoop·分布式·spark·django·课程设计
武子康8 小时前
大数据-92 Spark 深入解析 Spark Standalone 模式:组件构成、提交流程与性能优化
大数据·后端·spark
计算机毕业设计木哥11 小时前
计算机毕业设计 基于Python+Django的医疗数据分析系统
开发语言·hadoop·后端·python·spark·django·课程设计
计算机毕业设计木哥1 天前
计算机毕设选题:基于Python+Django的B站数据分析系统的设计与实现【源码+文档+调试】
java·开发语言·后端·python·spark·django·课程设计
IT研究室1 天前
大数据毕业设计选题推荐-基于大数据的贵州茅台股票数据分析系统-Spark-Hadoop-Bigdata
大数据·hadoop·spark·毕业设计·源码·数据可视化·bigdata
IT毕设梦工厂1 天前
大数据毕业设计选题推荐-基于大数据的国家基站整点数据分析系统-Hadoop-Spark-数据可视化-BigData
大数据·hadoop·spark·毕业设计·源码·数据可视化
武子康1 天前
大数据-91 Spark广播变量:高效共享只读数据的最佳实践 RDD+Scala编程
大数据·后端·spark