hadoop服务器启动后无法执行hdfs dfs命令

集群启动后,无法正常使用hdfs的任何命令。使用jps查看进程,发现namenode没有启动,然后再进入到Hadoop的相应目录,打开里面的logs文件

打开Hadoop的master的log

再使用vi编辑器查看(也可以用less或者more命令查看),往上翻到第一个java的报错,发现是img文件坏掉了导致namenode启动不了。然后删除掉hadoop文件下面的tmp文件和dfs文件(子目录也要删干净)。然后重新建dfs和tmp文件,dfs文件下有两个子目录。

然后重新执行namenode -format指令初始化集群。

再重新启动,namenode就可以使用了

可能的原因:namenode死掉的原因可能是关虚拟机时没有stop-all.sh,而是直接把虚拟机关了,导致img出了问题。

相关推荐
海棠AI实验室21 分钟前
第十六章 迭代器与生成器:处理大数据的第一步
大数据·迭代器·生成器
Hello.Reader44 分钟前
Flink 部署组件拆解、参考架构、Application vs Session 选型,以及生产落地 Checklist
大数据·架构·flink
Mikhail_G1 小时前
Mysql数据库操作指南(零基础篇二)
大数据·数据库·sql·mysql·数据分析
白日与明月1 小时前
Hive中的大批量关键词匹配场景优化
数据仓库·hive·hadoop
hua_ban_yu1 小时前
闭包和return的关系
大数据
Elastic 中国社区官方博客1 小时前
Elasticsearch:使用 `best_compression` 提升搜索性能
大数据·运维·数据库·elasticsearch·搜索引擎·全文检索
德彪稳坐倒骑驴1 小时前
大数据开发面试题
大数据
你才是臭弟弟2 小时前
数据如何入湖
大数据
德彪稳坐倒骑驴2 小时前
Spark面试准备
大数据·分布式·spark
奥特曼_ it2 小时前
【Spark+Hadoop】基于spark+hadoop游戏评论数据分析可视化大屏(完整系统源码+数据库+开发笔记+详细部署教程+虚拟机分布式启动教程)✅
hadoop·分布式·spark