spark log4j日志文件动态参数读取

需要在log4j xml文件中设置动态参数,并支持spark任务在集群模式下,动态参数读取正常;

1.log4j配置文件 log4j2.xml

bash 复制代码
<?xml version="1.0" encoding="UTF-8"?>
<Configuration status="info" name="Log-Appender-Config" >
    <Properties>
        <Property name="logServerHost">${sys:logServer}</Property>
        <Property name="logServerPort">${sys:logServerPort}</Property>
    </Properties>
    <Appenders>
        <Socket name="Socket" host="${logServerHost}" port="${logServerPort}" >
            <PatternLayout pattern="%d{HH:mm:ss.SSS} %-5p [%-t] - %m%n"/>
            <ThresholdFilter level="info" />
        </Socket>
        <Async name="Async">
            <AppenderRef ref="Socket"/>
        </Async>
        
        <Console name="stdout" target="SYSTEM_OUT">
            <PatternLayout pattern="%d{HH:mm:ss.SSS} %-5p [%-7t] %F:%L - %m%n"/>
            <ThresholdFilter level="info" />
        </Console>

    </Appenders>
    <Loggers>
        <Logger name="org.apache.spark" level="info" additivity="false">
            <AppenderRef ref="Socket"/>
        </Logger>
        <Root level="info">
            <AppenderRef ref="stdout"/>
        </Root>
    </Loggers>
</Configuration>

spark 配置log4j2.xml,并设置了两个动态参数,logServer和logServerPort;

spark提交任务后driver和executer均需要获取上述参数初始化日志配置;

2.driver和executer获取参数方式

bash 复制代码
--conf "spark.driver.extraJavaOptions=-DlogServer=127.0.0.1 -DlogServerPort=60201" 

--conf "spark.executor.extraJavaOptions=-DlogServer=127.0.0.1 -DlogServerPort=60201"

spark提交任务时设定动态参数值,给driver和executer设置额外jvm参数;

注意:

参数key命名不要以spark*开头,会被spark认为是内部变量, 在Spark中,spark.executor.extraJavaOptions是用来为Executor进程设置额外的JVM选项的,但不包括Spark的内部配置选项;

错误示例如下:

Caused by: java.lang.Exception: spark.executor.extraJavaOptions is not allowed to set Spark options (was '-Dspark.log.server=127.0.0.1 -Dspark.log.server.port=60201'). Set them directly on a SparkConf or in a properties file when using ./bin/spark-submit.

将上述key名spark.log.server和spark.log.server.port修改为非spark开头即可;

参考:

https://www.cnblogs.com/yanhuahayi/p/14297615.html

Log4j2.xml中动态读取配置_log4j2 动态属性读取-CSDN博客

相关推荐
潘达斯奈基~8 小时前
Spark踩坑:如何优化pandas_udf中的多维数组传输效率
大数据·spark·pandas
最初的↘那颗心13 小时前
Spark Job 调度机制拆解:从 Action 算子到 Task 执行
大数据·spark·分布式计算
尋有緣16 小时前
Spark SQL 调优
大数据·sql·spark
十月南城2 天前
实时数据平台的价值链——数据采集、加工、存储、查询与消费的协同效应与ROI评估
数据库·数据仓库·hive·hadoop·spark
伟大的大威2 天前
NVIDIA DGX Spark (Blackwell GB10) 双机 196B Step 3.5 Flash 大模型部署完整实录
分布式·spark·nvidia
petrel20153 天前
【Spark】深度魔改 Spark 源码:打破静态限制,实现真正的运行时动态扩缩容
大数据·分布式·spark
zml.~3 天前
Spark 大数据分析:从原理到实战的一站式指南
大数据·数据分析·spark
zml.~4 天前
Spark大数据分析:解锁海量数据价值的核心利器
大数据·数据分析·spark
萝卜白菜。4 天前
在windows平台下log4j日志输出很多数字
log4j
petrel20154 天前
【Spark】性能与联通性的终极博弈:Spark on K8s 主机网络改造深度实战
大数据·网络·spark·kubernetes·claude code