如何解决在idea中的hadoop日志错误

在idea中操作hadoop的时候,每次运行代码都会发现有个日志错误,虽然不影响程序运行,但是无法打印日志。这是缺少依赖,和windows上缺少log4j的文件

解决方案:

1、导入slf4j依赖

2、导入hadoop中的log4j文件

1、从hadoop中找到log4j文件

2、将log4j文件放到resource文件下,程序在运行的时候会自动检测,这样就不会报错,从而顺利打出日志。

相关推荐
JZC_xiaozhong6 分钟前
如何统一管理自研系统与外购系统的用户权限?
大数据·iam·企业数据安全·数据集成与应用集成·权限治理·多系统权限管理·统一权限管理
青木川崎8 分钟前
hive实战
数据仓库·hive·hadoop
程序员miki9 分钟前
Redis核心命令以及技术方案参考文档(分布式锁,缓存业务逻辑)
redis·分布式·python·缓存
是阿威啊10 分钟前
【第五站】集群组件一键启动/关闭脚本(Hadoop/YARN + Hive + Spark)
linux·运维·hive·hadoop·spark
青木川崎12 分钟前
大数据技术之hive
大数据·hive·hadoop
电商API_1800790524713 分钟前
进阶篇:电商商品评论情感分析 + 关键词挖掘(Python NLP 实战)
大数据·开发语言·网络·数据库·人工智能
北城以北888815 分钟前
RabbitMQ基础知识
spring boot·分布式·rabbitmq·intellij-idea
SelectDB技术团队20 分钟前
慢 SQL 诊断准确率 99.99%,天翼云基于 Apache Doris MCP 的 AI 智能运维实践
大数据·数据库·人工智能·sql·apache
搬砖快乐~27 分钟前
面经:大数据开发岗-初面 面试题(40分钟)
大数据·hadoop·spark·kafka·面试题·面经
潘达斯奈基~32 分钟前
spark性能优化3:小文件问题
大数据·性能优化·spark