hadoop集群启动没有datanode解决

问题

多次初始化会出现此问题,根本原因是ClusterID不一样

解决

首先停止集群

bash 复制代码
stop-all.sh

然后到/hadoop/logs中找到hadoop-root-datanode-hadoopxxx.log文件

cat一下这个文件,找到ClusterID

复制

然后到

可能文件会不太一样,可能直接是data或者dfs目录

这些不重要,重要的是在子目录里找到VERSION这个文件(注意有多个)

比如我这个两个目录下都有current,里面都有

把所有VERSION里的ClusterID改成刚刚复制的那个

重启,ok

相关推荐
Terio_my1 小时前
Elasticsearch 索引创建与文档管理
大数据·elasticsearch·jenkins
大数据检索中心1 小时前
个人数据泄露有哪些法律与安全风险?
大数据·安全
赵渝强老师2 小时前
【赵渝强老师】MongoDB的分布式存储架构
分布式·mongodb·架构
Hello.Reader3 小时前
Kafka 授权与 ACL 深入实践
分布式·kafka·linq
席万里5 小时前
使用Go做一个分布式短链系统
开发语言·分布式·golang
AI数据皮皮侠8 小时前
中国上市公司数据(2000-2023年)
大数据·人工智能·python·深度学习·机器学习
Elastic 中国社区官方博客12 小时前
Elasticsearch MCP 服务器:与你的 Index 聊天
大数据·服务器·人工智能·elasticsearch·搜索引擎·ai·全文检索
Terio_my14 小时前
RabbitMQ 安装与配置
分布式·rabbitmq
文火冰糖的硅基工坊14 小时前
[创业之路-653]:社会产品与服务的分类
大数据·数据库·人工智能
key0615 小时前
ISO 27001 信息安全管理体系 (ISMS) 建设与运营
大数据·安全合规