在spark中配置历史服务器

在 Spark 中配置历史服务器,可按以下步骤操作:

1. 配置 spark-defaults.conf 文件

此文件一般位于 $SPARK_HOME/conf 目录下。若该文件不存在,可从 spark-defaults.conf.template 复制一份。

在文件里添加如下配置:

plaintext

复制代码
spark.eventLog.enabled           true
spark.eventLog.dir               hdfs://<namenode>:<port>/spark-logs

其中,<namenode> 是 HDFS 名称节点的主机名,<port> 是 HDFS 名称节点的端口号。你要确保 HDFS 路径存在,并且 Spark 有写入该路径的权限。

2. 配置 spark-env.sh 文件

同样在 $SPARK_HOME/conf 目录下,若文件不存在,可从 spark-env.sh.template 复制一份。

添加如下配置:

bash

复制代码
export SPARK_HISTORY_OPTS="-Dspark.history.fs.logDirectory=hdfs://<namenode>:<port>/spark-logs -Dspark.history.ui.port=18080"

这里的 <namenode><port> 要和 spark-defaults.conf 里的配置一致。18080 是历史服务器的端口号,你可按需修改。

3. 启动历史服务器

在 Spark 集群的任意节点上运行以下命令来启动历史服务器:

bash

复制代码
$SPARK_HOME/sbin/start-history-server.sh

4. 访问历史服务器

启动成功后,你可以通过浏览器访问 http://<hostname>:18080 来查看 Spark 作业的历史记录,其中 <hostname> 是运行历史服务器的节点的主机名。

5. 停止历史服务器

若要停止历史服务器,可运行以下命令:

bash

复制代码
$SPARK_HOME/sbin/stop-history-server.sh

通过以上步骤,你就能成功在 Spark 中配置并使用历史服务器了。要注意的是,配置完成后,后续运行的 Spark 作业的日志会被记录到指定的 HDFS 路径,这样你就能在历史服务器上查看这些作业的详细信息了。

分享

相关推荐
getapi12 分钟前
注塑件的费用构成
linux·服务器·ubuntu
Maynor99638 分钟前
OpenClaw 玩家必备:用 AI 自动追踪社区最新动态
java·服务器·人工智能
郝学胜-神的一滴41 分钟前
深入解析C/S模型下的TCP通信流程:从握手到挥手的技术之旅
linux·服务器·c语言·网络·网络协议·tcp/ip
WooaiJava1 小时前
AI 智能助手项目面试技术要点总结(前端部分)
javascript·大模型·html5
“αβ”1 小时前
数据链路层协议 -- 以太网协议与ARP协议
服务器·网络·网络协议·以太网·数据链路层·arp·mac地址
Never_Satisfied1 小时前
在JavaScript / HTML中,关于querySelectorAll方法
开发语言·javascript·html
董世昌411 小时前
深度解析ES6 Set与Map:相同点、核心差异及实战选型
前端·javascript·es6
Thera7771 小时前
【Linux C++】彻底解决僵尸进程:waitpid(WNOHANG) 与 SA_NOCLDWAIT
linux·服务器·c++
呉師傅2 小时前
【使用技巧】Adobe Photoshop 2024调整缩放与布局125%后出现点菜单项漂移问题的简单处理
运维·服务器·windows·adobe·电脑·photoshop
WeiXiao_Hyy2 小时前
成为 Top 1% 的工程师
java·开发语言·javascript·经验分享·后端