如何解决在idea中的hadoop日志错误

在idea中操作hadoop的时候,每次运行代码都会发现有个日志错误,虽然不影响程序运行,但是无法打印日志。这是缺少依赖,和windows上缺少log4j的文件

解决方案:

1、导入slf4j依赖

2、导入hadoop中的log4j文件

1、从hadoop中找到log4j文件

2、将log4j文件放到resource文件下,程序在运行的时候会自动检测,这样就不会报错,从而顺利打出日志。

相关推荐
ProtonBase14 分钟前
如何从 0 到 1 ,打造全新一代分布式数据架构
java·网络·数据库·数据仓库·分布式·云原生·架构
时时刻刻看着自己的心18 分钟前
clickhouse分布式表插入数据不用带ON CLUSTER
分布式·clickhouse
TGB-Earnest1 小时前
【py脚本+logstash+es实现自动化检测工具】
大数据·elasticsearch·自动化
大圣数据星球3 小时前
Fluss 写入数据湖实战
大数据·设计模式·flink
suweijie7683 小时前
SpringCloudAlibaba | Sentinel从基础到进阶
java·大数据·sentinel
Data跳动9 小时前
Spark内存都消耗在哪里了?
大数据·分布式·spark
woshiabc11110 小时前
windows安装Elasticsearch及增删改查操作
大数据·elasticsearch·搜索引擎
lucky_syq10 小时前
Saprk和Flink的区别
大数据·flink
lucky_syq10 小时前
流式处理,为什么Flink比Spark Streaming好?
大数据·flink·spark
袋鼠云数栈10 小时前
深入浅出Flink CEP丨如何通过Flink SQL作业动态更新Flink CEP作业
大数据