【Hadoop】改一下core-site.xml和hdfs-site.xml配置就可以访问Web UI

core-site.xml:

hdfs-site.xml:

所有的都改为0.0.0.0 就可以访问Web UI

原因:

使用 0.0.0.0 作为绑定地址时,实际会将服务监听在所有可用的网络接口上。这意味着,任何从外部访问的请求都可以通过任何网络适配器连接到服务,包括本地连接、局域网连接等。这可能会导致以下几种情况:

  1. 网络接口问题

    之前使用 192.168.10.101 时,服务可能只是监听在这个特定的 IP 地址上。如果这台机器有多个 IP 地址或网络接口,访问其他地址可能会失败。

  2. 防火墙或安全组设置

    有可能在服务器的防火墙或安全组中,特别是针对特定 IP 地址(如 192.168.10.101)进行了一些限制,导致无法访问。因此,将地址改为 0.0.0.0 后,它会接受来自任何地址的连接。

  3. Hadoop Configuration

    在 Hadoop 的配置中,对于 NameNode 的 dfs.namenode.http-address 属性,如果之前是绑定在 192.168.10.101 而无法访问,可能是因为该配置没有正确识别或应用。将其设置为 0.0.0.0 可能让它接受所有请求。

  4. 客户端访问

    访问请求可能未经过最初需连接的 IP 地址。如果 HDFS 仅对 0.0.0.0 绑定,可以使用任何其他有效 IP 地址进行访问。

相关推荐
AidLux39 分钟前
端侧智能重构智能监控新路径 | 2025 高通边缘智能创新应用大赛第三场公开课来袭!
大数据·人工智能
炒空心菜菜1 小时前
SparkSQL 连接 MySQL 并添加新数据:实战指南
大数据·开发语言·数据库·后端·mysql·spark
富能量爆棚1 小时前
Hadoop和Spark生态系统
大数据
2401_871290583 小时前
Spark的缓存
大数据·spark
IvanCodes5 小时前
六、Hive 分桶
大数据·hive
依年南台5 小时前
Spark处理过程-转换算子和行动算子
大数据·ajax·spark
IvanCodes5 小时前
七、深入 Hive DDL:管理表、分区与洞察元数据
数据仓库·hive·hadoop
中电金信5 小时前
重构金融数智化产业版图:中电金信“链主”之道
大数据·人工智能
七七-d5 小时前
配置Hadoop集群-上传文件
大数据·hadoop·eclipse
心仪悦悦7 小时前
Spark缓存
大数据·缓存·spark