hadoop服务器启动后无法执行hdfs dfs命令

集群启动后,无法正常使用hdfs的任何命令。使用jps查看进程,发现namenode没有启动,然后再进入到Hadoop的相应目录,打开里面的logs文件

打开Hadoop的master的log

再使用vi编辑器查看(也可以用less或者more命令查看),往上翻到第一个java的报错,发现是img文件坏掉了导致namenode启动不了。然后删除掉hadoop文件下面的tmp文件和dfs文件(子目录也要删干净)。然后重新建dfs和tmp文件,dfs文件下有两个子目录。

然后重新执行namenode -format指令初始化集群。

再重新启动,namenode就可以使用了

可能的原因:namenode死掉的原因可能是关虚拟机时没有stop-all.sh,而是直接把虚拟机关了,导致img出了问题。

相关推荐
灯下夜无眠3 小时前
conda打包环境上传spark集群
大数据·spark·conda
杂家3 小时前
Hive on Spark && Spark on Hive配置
大数据·数据仓库·hive·hadoop·spark
电商API_180079052473 小时前
淘宝详情数据 API 返回字段全解析:核心字段说明 + 开发避坑指南
大数据·数据库·性能优化·数据挖掘·数据分析·网络爬虫
2501_941807264 小时前
可持续发展与绿色科技的未来:从创新到实践
大数据·人工智能·物联网
武子康4 小时前
大数据-162 Apache Kylin 增量 Cube 与 Segment 实战:按天分区增量构建指南
大数据·后端·apache kylin
小王毕业啦4 小时前
1999-2023年 地级市-数字经济综合发展指数
大数据·人工智能·数据挖掘·数据分析·数据统计·社科数据·实证数据
bigdata-rookie7 小时前
Spark SQL 简介
大数据·sql·spark
一只会写代码的猫12 小时前
可持续发展中的绿色科技:推动未来的环保创新
大数据·人工智能
沧海寄馀生13 小时前
Apache Hadoop生态组件部署分享-Hadoop
大数据·hadoop·分布式·apache
毕设源码-朱学姐13 小时前
【开题答辩全过程】以 基于Hadoop的豆瓣电影数据分析系统设计与实现为例,包含答辩的问题和答案
大数据·hadoop·分布式