用idea写Spark程序时,想要在控制台打印日志?

需求:

用idea写Spark程序时,想要在控制台打印日志

解决:

在src/main/resources目录下创建log4j.properties文件

输入以下内容,然后运行程序即可

复制代码
#Set everything to be logged to the console
log4j.rootCategory=INFO, console
log4j.appender.console=org.apache.log4j.ConsoleAppender
log4j.appender.console.target=System.err
log4j.appender.console.layout=org.apache.log4j.PatternLayout
log4j.appender.console.layout.ConversionPattern=%d{yy/MM/dd HH:mm:ss} %p %c{1}: %m%n
 
#Settings to quiet third party logs that are too verbose
log4j.logger.org.spark-project.jetty=WARN
log4j.logger.org.spark-project.jetty.util.component.AbstractLifeCycle=ERROR
log4j.logger.org.apache.spark.repl.SparkIMain$exprTyper=INFO
log4j.logger.org.apache.spark.repl.SparkILoop$SparkILoopInterpreter=INFO

如果希望在报错的情况下才打印日志

覆盖上述文件内容:然后运行程序即可

复制代码
#Set everything to be logged to the console

log4j.rootCategory=WARN, console
log4j.appender.console=org.apache.log4j.ConsoleAppender
log4j.appender.console.target=System.err
log4j.appender.console.layout=org.apache.log4j.PatternLayout
log4j.appender.console.layout.ConversionPattern=%d{yy/MM/dd HH:mm:ss} %p %c{1}: %m%n

#Settings to quiet third party logs that are too verbose
log4j.logger.org.spark-project.jetty=WARN
log4j.logger.org.spark-project.jetty.util.component.AbstractLifeCycle=ERROR
log4j.logger.org.apache.spark.repl.SparkIMain$exprTyper=INFO
log4j.logger.org.apache.spark.repl.SparkILoop$SparkILoopInterpreter=INFO
相关推荐
petrel20157 小时前
【Spark】深度魔改 Spark 源码:打破静态限制,实现真正的运行时动态扩缩容
大数据·分布式·spark
zml.~1 天前
Spark 大数据分析:从原理到实战的一站式指南
大数据·数据分析·spark
zml.~1 天前
Spark大数据分析:解锁海量数据价值的核心利器
大数据·数据分析·spark
petrel20151 天前
【Spark】性能与联通性的终极博弈:Spark on K8s 主机网络改造深度实战
大数据·网络·spark·kubernetes·claude code
Moshow郑锴1 天前
Spark与Prophecy综合比较&&推荐Prophecy的理由
大数据·分布式·spark
high20111 天前
【Auron】-- 让 Spark SQL/DataFrame 跑得更快
大数据·sql·spark
走遍西兰花.jpg2 天前
spark的shuffle原理及调优
大数据·分布式·spark
小邓睡不饱耶2 天前
Spark 3.5.1 全栈实战指南:从环境部署到生产优化
大数据·分布式·spark
灯下夜无眠2 天前
spark本地模式基础配置流程
大数据·分布式·spark
伟大的大威2 天前
【AI 集群实战】多节点 DGX Spark 集群共享大模型
大数据·人工智能·spark