hadoop分布式中某个 节点报错的解决案例

前言

在分布式节点中,发现有个节点显示不可用状态,因此需要紧急修复。

hadoop版本

目前这套集群hadoop的版本如下:

集群报错详细日志:

1/1 local-dirs are bad: /kkb/install/hadoop-2.6.0-cdh5.14.2/hadoopDatas/tempDatas/nm-local-dir; 1/1 log-dirs are b

报错分析

通过分析发现,应该是这个节点的磁盘空间满了。

这条错误信息指出 Hadoop 集群的 NodeManager 无法写入其配置的本地目录和日志目录。这通常发生在 Hadoop 集群启动时,NodeManager 尝试初始化时。错误的原因是指定的本地目录 (`local-dirs`) 和日志目录 (`log-dirs`) 不可用或不可写。

可能的原因包括:

  1. **目录不存在**:配置的路径可能不存在。

  2. **权限问题**:运行 Hadoop 的用户可能没有权限写入这些目录。

  3. **磁盘空间不足**:指定的磁盘可能已满。

  4. **SELinux 策略**:如果你的系统使用 SELinux,可能需要调整安全上下文。

  5. **目录损坏**:文件系统损坏或目录结构损坏。

解决步骤:

  1. **检查目录是否存在**:

```sh

ls -ld /kkb/install/hadoop-2.6.0-cdh5.14.2/hadoopDatas/tempDatas/nm-local-dir

ls -ld /kkb/install/hadoop-2.6.0-cdh5.14.2/logs/userlogs

```

  1. **创建缺失的目录**:

如果目录不存在,你需要手动创建它们:

```sh

mkdir -p /kkb/install/hadoop-2.6.0-cdh5.14.2/hadoopDatas/tempDatas/nm-local-dir

mkdir -p /kkb/install/hadoop-2.6.0-cdh5.14.2/logs/userlogs

```

  1. **检查权限**:

确保运行 Hadoop 的用户(例如 `hadoop` 用户)对这些目录具有写权限:

```sh

chown -R hadoop:hadoop /kkb/install/hadoop-2.6.0-cdh5.14.2/hadoopDatas/tempDatas/

chown -R hadoop:hadoop /kkb/install/hadoop-2.6.0-cdh5.14.2/logs/

```

  1. **检查磁盘空间**:

使用 `df -h` 检查磁盘空间是否已满。

  1. **调整 SELinux**:

如果你的系统使用 SELinux,可能需要调整策略或更改目录的安全上下文:

```sh

chcon -R -t hadoop_var_lib_t /kkb/install/hadoop-2.6.0-cdh5.14.2/hadoopDatas/tempDatas/

chcon -R -t hadoop_log_t /kkb/install/hadoop-2.6.0-cdh5.14.2/logs/

```

  1. **检查 Hadoop 配置**:

确保 `hdfs-site.xml` 和 `core-site.xml` 中配置的本地目录和日志目录路径正确无误。

  1. **格式化 NameNode(如果必要)**:

如果 NameNode 损坏,可能需要格式化。但这将删除所有 HDFS 数据,因此只有在安全模式或测试环境中才考虑执行此操作。

  1. **重启 Hadoop 服务**:

在解决了目录问题后,尝试重启 Hadoop 服务,特别是 NodeManager。

  1. **查看日志文件**:

检查 Hadoop 的日志文件,特别是 `hadoop-*.log` 文件,以获取更多错误信息。

  1. **联系管理员**:

如果你没有足够的权限或不熟悉系统,联系系统管理员来帮助解决问题。

请在进行任何重要更改之前备份重要数据,并确保你具有足够的系统管理知识或获得专业帮助。

通过50070端口进去发现确实是因为节点01的空间即将耗尽。

相关推荐
字节跳动数据平台3 小时前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术5 小时前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
武子康6 小时前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
武子康1 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天1 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
武子康3 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive
初次攀爬者4 天前
ZooKeeper 实现分布式锁的两种方式
分布式·后端·zookeeper
武子康4 天前
大数据-235 离线数仓 - 实战:Flume+HDFS+Hive 搭建 ODS/DWD/DWS/ADS 会员分析链路
大数据·后端·apache hive
DianSan_ERP5 天前
电商API接口全链路监控:构建坚不可摧的线上运维防线
大数据·运维·网络·人工智能·git·servlet
够快云库5 天前
能源行业非结构化数据治理实战:从数据沼泽到智能资产
大数据·人工智能·机器学习·企业文件安全