如何解决在idea中的hadoop日志错误

在idea中操作hadoop的时候,每次运行代码都会发现有个日志错误,虽然不影响程序运行,但是无法打印日志。这是缺少依赖,和windows上缺少log4j的文件

解决方案:

1、导入slf4j依赖

2、导入hadoop中的log4j文件

1、从hadoop中找到log4j文件

2、将log4j文件放到resource文件下,程序在运行的时候会自动检测,这样就不会报错,从而顺利打出日志。

相关推荐
武子康6 小时前
大数据-98 Spark 从 DStream 到 Structured Streaming:Spark 实时计算的演进
大数据·后端·spark
阿里云大数据AI技术6 小时前
2025云栖大会·大数据AI参会攻略请查收!
大数据·人工智能
代码匠心8 小时前
从零开始学Flink:数据源
java·大数据·后端·flink
Lx35211 小时前
复杂MapReduce作业设计:多阶段处理的最佳实践
大数据·hadoop
武子康13 小时前
大数据-100 Spark DStream 转换操作全面总结:map、reduceByKey 到 transform 的实战案例
大数据·后端·spark
expect7g14 小时前
Flink KeySelector
大数据·后端·flink
阿里云大数据AI技术1 天前
StarRocks 助力数禾科技构建实时数仓:从数据孤岛到智能决策
大数据
Lx3521 天前
Hadoop数据处理优化:减少Shuffle阶段的性能损耗
大数据·hadoop
努力的小郑2 天前
从一次分表实践谈起:我们真的需要复杂的分布式ID吗?
分布式·后端·面试
武子康2 天前
大数据-99 Spark Streaming 数据源全面总结:原理、应用 文件流、Socket、RDD队列流
大数据·后端·spark