Hadoop的DataNode无法启动的解决方案

Hadoop重启一次,里面的数据需要重新导入,发现无法导入数据,查看jps发现是DataNode没有启动,重新启动发现也无法启动,原因是前面重新启动NameNode,里面的文件格式化一次,DataNode的文件不一致,需要删除,现给出以下解决方案:

  1. 停止所有服务
shell 复制代码
bigdata/hadoop/sbin/stop-all.sh
  1. 查询datanode的文件路劲
shell 复制代码
vim bigdata/hadoop/etc/hadoop/hdfs-site.xml
  1. 删除HDFS下的DataNode下的Data文件
shell 复制代码
rm -rf /root/bigdata/hadoop/hdfs/data
  1. 重新启动Hadoop
shell 复制代码
bigdata/hadoop/sbin/start-all.sh
相关推荐
斯普信专业组1 分钟前
Kafka主题运维全指南:从基础配置到故障处理
运维·分布式·kafka
linmoo198620 分钟前
Flink 系列之二十二 - 高级概念 - 保存点
大数据·flink·savepoint·保存点
社恐码农34 分钟前
Hive开窗函数的进阶SQL案例
hive·hadoop·sql
百度Geek说1 小时前
BaikalDB 架构演进实录:打造融合向量化与 MPP 的 HTAP 查询引擎
数据库·分布式·架构
试剂界的爱马仕2 小时前
TCA 循环中间体如何改写肝损伤命运【AbMole】
大数据·人工智能·科技·机器学习·ai写作
Leo.yuan2 小时前
数据湖是什么?数据湖和数据仓库的区别是什么?
大数据·运维·数据仓库·人工智能·信息可视化
q567315232 小时前
分布式增量爬虫实现方案
开发语言·分布式·爬虫·python
hao_wujing3 小时前
基于梯度的中毒攻击
大数据·人工智能
小鸡脚来咯13 小时前
RabbitMQ入门
分布式·rabbitmq
qq_4639448615 小时前
【Spark征服之路-2.2-安装部署Spark(二)】
大数据·分布式·spark