用idea写Spark程序时,想要在控制台打印日志?

需求:

用idea写Spark程序时,想要在控制台打印日志

解决:

在src/main/resources目录下创建log4j.properties文件

输入以下内容,然后运行程序即可

复制代码
#Set everything to be logged to the console
log4j.rootCategory=INFO, console
log4j.appender.console=org.apache.log4j.ConsoleAppender
log4j.appender.console.target=System.err
log4j.appender.console.layout=org.apache.log4j.PatternLayout
log4j.appender.console.layout.ConversionPattern=%d{yy/MM/dd HH:mm:ss} %p %c{1}: %m%n
 
#Settings to quiet third party logs that are too verbose
log4j.logger.org.spark-project.jetty=WARN
log4j.logger.org.spark-project.jetty.util.component.AbstractLifeCycle=ERROR
log4j.logger.org.apache.spark.repl.SparkIMain$exprTyper=INFO
log4j.logger.org.apache.spark.repl.SparkILoop$SparkILoopInterpreter=INFO

如果希望在报错的情况下才打印日志

覆盖上述文件内容:然后运行程序即可

复制代码
#Set everything to be logged to the console

log4j.rootCategory=WARN, console
log4j.appender.console=org.apache.log4j.ConsoleAppender
log4j.appender.console.target=System.err
log4j.appender.console.layout=org.apache.log4j.PatternLayout
log4j.appender.console.layout.ConversionPattern=%d{yy/MM/dd HH:mm:ss} %p %c{1}: %m%n

#Settings to quiet third party logs that are too verbose
log4j.logger.org.spark-project.jetty=WARN
log4j.logger.org.spark-project.jetty.util.component.AbstractLifeCycle=ERROR
log4j.logger.org.apache.spark.repl.SparkIMain$exprTyper=INFO
log4j.logger.org.apache.spark.repl.SparkILoop$SparkILoopInterpreter=INFO
相关推荐
L耀早睡2 小时前
mapreduce打包运行
大数据·前端·spark·mapreduce
元6334 小时前
Spark处理过程-案例数据清洗
spark
睎zyl14 小时前
Spark自定义分区器-基础
大数据·分布式·spark
元63315 小时前
搭建spark-local模式
大数据·spark
元63318 小时前
运行Spark程序-在shell中运行
spark
炒空心菜菜19 小时前
MapReduce 实现 WordCount
java·开发语言·ide·后端·spark·eclipse·mapreduce
lqlj223321 小时前
Spark SQL 读取 CSV 文件,并将数据写入 MySQL 数据库
数据库·sql·spark
漂流瓶6666661 天前
运行Spark程序-在shell中运行 --SparkConf 和 SparkContext
大数据·分布式·spark
lqlj22331 天前
RDD案例数据清洗
大数据·分布式·spark
心仪悦悦1 天前
RDD的自定义分区器
大数据·分布式·spark