hadoop集群搭建之HA模式

1.Hadoop环境变量相关配置

1.在node01上创建hadoop安装路径:

mkdir /opt/bigdata

2.解压hadoop软件包

tar xf hadoop-2.6.5.tar.gz

mv hadoop-2.6.5 /opt/bigdata/

3.配置hadoop环境便令

vi /etc/profile

export JAVA_HOME=/usr/java/default

export HADOOP_HOME=/opt/bigdata/hadoop-2.6.5

export PATH=PATH:JAVA_HOME/bin:HADOOP_HOME/bin:HADOOP_HOME/sbin

4.使配置生效

source /etc/profile

5.检测

在任意目录输入hd按Tab建看是否能联想出hdfs命令,有侧安装配置成功

6.从node01分发到其他节点(node02,node03,node04)

cd /opt

scp -r ./bigdata/ node02:`pwd`

scp -r ./bigdata/ node03:`pwd`

scp -r ./bigdata/ node04:`pwd`

2.安装zookeeper(node02,node03,node04)

node02:

tar xf zook....tar.gz

mv zoo... /opt/bigdata

cd /opt/bigdata/zoo....

cd conf

cp zoo_sample.cfg zoo.cfg

vi zoo.cfg

datadir=/var/bigdata/hadoop/zk

server.1=node02:2888:3888

server.2=node03:2888:3888

server.3=node04:2888:3888

mkdir /var/bigdata/hadoop/zk

echo 1 > /var/bigdata/hadoop/zk/myid

vi /etc/profile

export ZOOKEEPER_HOME=/opt/bigdata/zookeeper-3.4.6

export PATH=PATH:JAVA_HOME/bin:HADOOP_HOME/bin:HADOOP_HOME/sbin:$ZOOKEEPER_HOME/bin

. /etc/profile

cd /opt/bigdata

scp -r ./zookeeper-3.4.6 node03:`pwd`

scp -r ./zookeeper-3.4.6 node04:`pwd`

node03:

mkdir /var/bigdata/hadoop/zk

echo 2 > /var/bigdata/hadoop/zk/myid

*环境变量

. /etc/profile

node04:

mkdir /var/bigdata/hadoop/zk

echo 3 > /var/bigdata/hadoop/zk/myid

*环境变量

. /etc/profile

node02~node04:

zkServer.sh start

3.hadoop文件相关配置

1.修改hadoop-env.sh

vi hadoop-env.sh

export JAVA_HOME=/usr/java/default

2.修改core-site.xml

vi core-site.xml

XML 复制代码
<property>
    <name>fs.defaultFS</name>
	<value>hdfs://mycluster</value>
</property>

<property>
	<name>ha.zookeeper.quorum</name>
	<value>node02:2181,node03:2181,node04:2181</value>
</property>

3.修改hdfs-site.xml

vi hdfs-site.xml

XML 复制代码
<property>
		  <name>dfs.nameservices</name>
		  <value>mycluster</value>
		</property>
		<property>
		  <name>dfs.ha.namenodes.mycluster</name>
		  <value>nn1,nn2</value>
		</property>
		<property>
		  <name>dfs.namenode.rpc-address.mycluster.nn1</name>
		  <value>node01:8020</value>
		</property>
		<property>
		  <name>dfs.namenode.rpc-address.mycluster.nn2</name>
		  <value>node02:8020</value>
		</property>
		<property>
		  <name>dfs.namenode.http-address.mycluster.nn1</name>
		  <value>node01:50070</value>
		</property>
		<property>
		  <name>dfs.namenode.http-address.mycluster.nn2</name>
		  <value>node02:50070</value>
		</property>

		#以下是JN在哪里启动,数据存那个磁盘
		<property>
		  <name>dfs.namenode.shared.edits.dir</name>
		  <value>qjournal://node01:8485;node02:8485;node03:8485/mycluster</value>
		</property>
		<property>
		  <name>dfs.journalnode.edits.dir</name>
		  <value>/var/bigdata/hadoop/ha/dfs/jn</value>
		</property>
		
		#HA角色切换的代理类和实现方法,我们用的ssh免密
		<property>
		  <name>dfs.client.failover.proxy.provider.mycluster</name>
		  <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
		</property>
		<property>
		  <name>dfs.ha.fencing.methods</name>
		  <value>sshfence</value>
		</property>
		<property>
		  <name>dfs.ha.fencing.ssh.private-key-files</name>
		  <value>/root/.ssh/id_dsa</value>
		</property>
		
		#开启自动化: 启动zkfc
		 <property>
		   <name>dfs.ha.automatic-failover.enabled</name>
		   <value>true</value>
		 </property>

4.修改vi slaves

vi slaves

XML 复制代码
node02
node03
node04
相关推荐
vx_dmxq2115 小时前
【PHP考研互助系统】(免费领源码+演示录像)|可做计算机毕设Java、Python、PHP、小程序APP、C#、爬虫大数据、单片机、文案
java·spring boot·mysql·考研·微信小程序·小程序·php
5***g2985 小时前
新手如何快速搭建一个Springboot项目
java·spring boot·后端
daidaidaiyu5 小时前
Jetlinks 物联网平台 开源版学习源码分析
java·mqtt·rxjava·tcp
j***78885 小时前
clickhouse-介绍、安装、数据类型、sql
java
q***47186 小时前
Spring中的IOC详解
java·后端·spring
vx_vxbs666 小时前
【SSM电影网站】(免费领源码+演示录像)|可做计算机毕设Java、Python、PHP、小程序APP、C#、爬虫大数据、单片机、文案
java·spring boot·python·mysql·小程序·php·idea
数据科学小丫6 小时前
数据分析与FineBI介绍
大数据·数据分析·finebi
ALex_zry7 小时前
Git大型仓库推送失败问题完整解决方案
大数据·git·elasticsearch
SunnyDays10117 小时前
如何使用 Java 删除 Word 文档中的水印
java·删除word文档水印
毕设源码-邱学长7 小时前
【开题答辩全过程】以 基于Java企业人事工资管理系统为例,包含答辩的问题和答案
java·开发语言