(十一)大数据实战——hadoop高可用之HDFS手动模式高可用

前言

本节内容我们介绍一下hadoop在手动模式下如何实现HDFS的高可用,HDFS的高可用功能是通过配置多个 NameNodes(Active/Standby)实现在集群中对 NameNode 的热备来解决上述问题。如果出现故障,如机器崩溃或机器需要升级维护,这时可通过此种方式将 NameNode很快的切换到另外一台机器,并通过JournalNode实现主备节点的数据同步。

正文

  • 集群规划

HDFS高可用集群规划
hadoop101 hadoop02 hadoop03 NameNode NameNode NameNode JournalNode JournalNode JournalNode DataNode DataNode DataNode

NameNode:控制节点

JournalNode:控制节点数据同步

DataNode:数据节点

  • 清除hadoop集群下的data和logs目录

-清除hadoop101的data和logs目录,hadoop102和hadoop103同上步骤

  • 在/opt/module/hadoop-3.1.3/etc/hadoop目录下修改core-site.xml配置文件
  • core-site.xml配置文件

    <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://mycluster</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/opt/module/hadoop-3.1.3/data</value> </property> </configuration>
  • 在/opt/module/hadoop-3.1.3/etc/hadoop目录下修改hdfs-site.xml配置文件
  • 修改hdfs-site.xml配置文件

    <configuration> <property> <name>dfs.namenode.name.dir</name> <value>file://${hadoop.tmp.dir}/nn</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file://${hadoop.tmp.dir}/dn</value> </property> <property> <name>dfs.journalnode.edits.dir</name> <value>${hadoop.tmp.dir}/jn</value> </property> <property> <name>dfs.nameservices</name> <value>mycluster</value> </property> <property> <name>dfs.ha.namenodes.mycluster</name> <value>nn1,nn2,nn3</value> </property> <property> <name>dfs.namenode.rpc-address.mycluster.nn1</name> <value>hadoop101:8020</value> </property> <property> <name>dfs.namenode.rpc-address.mycluster.nn2</name> <value>hadoop102:8020</value> </property> <property> <name>dfs.namenode.rpc-address.mycluster.nn3</name> <value>hadoop103:8020</value> </property> <property> <name>dfs.namenode.http-address.mycluster.nn1</name> <value>hadoop101:9870</value> </property> <property> <name>dfs.namenode.http-address.mycluster.nn2</name> <value>hadoop102:9870</value> </property> <property> <name>dfs.namenode.http-address.mycluster.nn3</name> <value>hadoop103:9870</value> </property> <property> <name>dfs.namenode.shared.edits.dir</name> <value>qjournal://hadoop101:8485;hadoop102:8485;hadoop103:8485/mycluster</value> </property> <property> <name>dfs.client.failover.proxy.provider.mycluster</name> <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value> </property> <property> <name>dfs.ha.fencing.methods</name> <value>sshfence</value> </property> <property> <name>dfs.ha.fencing.ssh.private-key-files</name> <value>/home/hadoop/.ssh/id_rsa</value> </property> </configuration>
  • 分发配置文件到其它hadoop集群服务器
  • 启动hadoop集群的journalnode服务,用于同步namenode数据
  • 命令:hdfs --daemon start journalnode

  • 对hadoop101节点数据格式化并启动namenode服务
  • 数据格式化命令:hdfs namenode -format
  • 启动namenode服务命令:hdfs --daemon start namenode
  • 在hadoop102与hadoop103上面执行以下命令同步hadoop101的元数据信息

命令:hdfs namenode -bootstrapStandby

  • 启动hadoop102与hadoop103的namenode服务

命令:hdfs --daemon start namenode

  • 在所有节点开启datanode服务

命令:hdfs --daemon start datanode

  • 将hadoop101激活为主节点

命令:hdfs haadmin -transitionToActive nn1

  • 查看节点状态

  • 自动模式存在的问题
  • 如果namenode挂机之后,想直接故障转移,把其它节点升级为namenode主节点是不行的,必须先将挂机的namenode重新启动才行,手动模式必须保证所有namenode节点必须是存活状态

  • 在有active状态下的namenode节点,是无法切换其它节点为active节点

  • 集群中只有一个节点是active

结语

hadoop高可用之HDFS手动模式高可用内容到这里就结束了,我们下期见。。。。。。

相关推荐
橙蜂智农7 分钟前
智慧农业案例 (一)- 自动化机械
大数据·人工智能·自动化·创业创新
小鹿会议播报11 分钟前
【学术会议征稿】2024年遥感技术与图像处理国际学术会议(RSTIP 2024)
大数据·图像处理·人工智能·云计算·制造·信号处理
计算机编程-吉哥26 分钟前
计算机毕业设计 基于Python的广东旅游数据分析系统的设计与实现 Python+Django+Vue Python爬虫 附源码 讲解 文档
大数据·python·数据分析·毕业设计·旅游·毕业论文·计算机毕业设计选题
goTsHgo37 分钟前
HBase 的 MemStore 详解
大数据·数据库·hbase
lzhlizihang1 小时前
Hadoop集群的高可用(HA):NameNode和resourcemanager高可用的搭建
hadoop·zookeeper·高可用·ha
AAEllisonPang1 小时前
ClickHouse 引擎的选择
大数据·数据库·clickhouse
计算机学姐2 小时前
基于大数据的二手房价数据可视化系统
大数据·vue.js·python·信息可视化·数据挖掘·数据分析·django
知识分享小能手2 小时前
mysql学习教程,从入门到精通,SQL RIGHT JOIN语句(24)
大数据·开发语言·数据库·sql·学习·mysql·数据分析
IT研究室2 小时前
大数据毕业设计选题推荐-国潮男装微博评论数据分析系统-Hive-Hadoop-Spark
大数据·hive·hadoop·python·spark·毕业设计·课程设计
消失在人海中2 小时前
大数据技术:Hadoop、Spark与Flink的框架演进
大数据·hadoop·spark