Hadoop安装与配置

一、 Hadoop 安装与配置

1、解压Hadoop 安装包

找到hadoop-2.6.0.tar.gz,将其复到master0节点的"/home/csu"目录内,解压hadoop

csu@master0 \~\]$ tar -zxvf \~/hadoop-2.6.0.tar.gz 解压成成功后自动在csu目录下创建hadoop-2.6.0子目录,可以用cd hadoop-2.6.0命令进入这个目录,并用ls -l 命令查看里面的文件。 ![](https://i-blog.csdnimg.cn/direct/c322f9f452374268b5b661462f8a4f48.jpeg) ## **2** **、配置hadoop** **环境变量** > 如果通过代码无法打开文件,就点击HOME目录,找到computer目录然后按照这个路径去找到各个文件夹"/home/csu/hadoop-2.6.0/etc/hadoop/hadoop-env.sh" \[csu@master0 \~\]$ gedit /home/csu/hadoop-2.6.0/etc/hadoop/hadoop-env.sh 在文件的前面找到"export JAVA_HOME={JAVA_HOME}"将其修改为实际的JDK安装路径,即输入"export JAVA_HOME=/usr/java/jdk1.7.0_71/" 编辑完毕保存退出即可 ![](https://i-blog.csdnimg.cn/direct/04a63aece60142ea897ca1076f3f59ef.png) ## **3** **、配置Yarn** **环境变量文件** 配置Yarn环境变量文件是yarn-env.sh,也位于"\~/hadoop-2.6.0/etc/hadoop"目录下 \[csu@master0 \~\]$ gedit /home/csu/hadoop-2.6.0/etc/hadoop/yarn-env.sh 在文件的前面部份找到"# export JAVA_HOME=/home/y/libexec/jdk1.6.0/ " 将其改为"export JAVA_HOME=/usr/java/jdk1.7.0_71/"编辑完毕保存退出即可 ![](https://i-blog.csdnimg.cn/direct/64ae1af8320548b6aa106469977e51e8.png) **4、配置核心组件文件** hadoop的核心组件文件是core-site.xml,也位于"\~/hadoop-2.6.0/etc/hadoop"目录下 \[csu@master0 \~\]$ gedit /home/csu/hadoop-2.6.0/etc/hadoop/core-site.xml 需要将下面的配置代码放在文件的\和\之间 \ \ \fs.defaultFS\ \hdfs://master0:9000\ \ \ \hadoop.tmp.dir\ \/home/csu/hadoopdata\ \ \ 编辑完毕保存退出即可 ![](https://i-blog.csdnimg.cn/direct/adb7a795bbec4fee98c4f937ed8945bd.png) (事先要在/home/csu下建一个hadoopdata目录) ![](https://i-blog.csdnimg.cn/direct/8d0fdb67b42643828eab2e407d9a4008.png) ## **5、配置文件系统** Hadoop的文件系统配置文件是hdfs-site.xml,也位于"\~/hadoop-2.6.0/etc/hadoop"子目录下。 \[csu@master0 \~\]$ gedit /home/csu/hadoop-2.6.0/etc/hadoop/hdfs-site.xml 需要将下面的代码填充到文件的\和\之间 \ \dfs.replication\ \1\ \ 编辑完毕保存退出即可 ![](https://i-blog.csdnimg.cn/direct/abf9fbf79308443197b2284c2c686cb6.png) dfs.replicationd是HDFS数据块的副本数,\1\ 中的值是1就表示是一个副本,默认值为3. ## **6、配置yarn-site.xml** **文件** yarn-site.xml文件也位于"\~/hadoop-2.6.0/etc/hadoop"子目录下 \[csu@master0 \~\]$ gedit /home/csu/hadoop-2.6.0/etc/hadoop/yarn-site.xml 将下面的代码填充到文件的\和\之间 \ \yarn.nodemanager.aux-services\ \mapreduce_shuffle\ \ \ \yarn.resourcemanager.address\ \master0:18040\ \ \ \yarn.resourcemanager.scheduler.address\ \master0:18030\ \ \ \yarn.resourcemanager.resource-tracker.address\ \master0:18025\ \ \ \yarn.resourcemanager.admin.address\ \master0:18141\ \ \ \yarn.resourcemanager.webapp.address\ \master0:18088\ \ 编辑完毕保存退出即可 ![](https://i-blog.csdnimg.cn/direct/2a63fce58a36422889b351bb267dd979.png) ## **7** **、配置MapReduce** **计算框架文件** 在\~/hadoop-2.6.0/etc/hadoop目录下系统已经有一个mapred-site.xml.template文件,将其复制并改名,位置不变。 \[csu@master0 \~\]$ cp /home/csu/hadoop-2.6.0/etc/hadoop/mapred-site.xml.template /home/csu/hadoop-2.6.0/etc/hadoop/mapred-site.xml ![](https://i-blog.csdnimg.cn/direct/d2bd48dac1084273a1877f18a723aa26.png) ![](https://i-blog.csdnimg.cn/direct/a97531308ced499f9b9eced8e94f16d3.png) ![](https://i-blog.csdnimg.cn/direct/e36dee10830749739c9eef468e66ad7b.png) 然后编辑这个文件 \[csu@master0 \~\]$ gedit /home/csu/hadoop-2.6.0/etc/hadoop/mapred-site.xml 将下面代码填充到文件的\和\之间 \ \mapreduce.framework.name\ \yarn\ \ 编辑完毕保存退出即可 ![](https://i-blog.csdnimg.cn/direct/518ce6dd20cf487480a014caeb830c5b.png) ## **8** **、配置master** **的slaves** **文件** \[csu@master0 \~\]$ gedit /home/csu/hadoop-2.6.0/etc/hadoop/slaves 根据自己搭建的实际情况进行编辑,现在只安装一个从节点slave0,就在里面输入内容 slave0 编辑完毕保存退出即可 ![](https://i-blog.csdnimg.cn/direct/139e5f8cd2684aaabb6ea5bb7df00a80.png) **9、复制master** **上的Hadoop** **到Slave** **节点** **有几个从节点就要复制几次,现在只有一个slave0** **从节点,就复制一次** \[csu@master0 \~\]$ scp -r /home/csu/hadoop-2.6.0 csu@slave0:\~/ (由于我们前面已经配置了免密钥登陆,因此这里不会有密码输入认证) 至此,就完成了Hadoop集群的安装与配置. ![](https://i-blog.csdnimg.cn/direct/7323bb43918f44158ec197ac775814ef.png) ## **二、Hadoop的启动** ## **1** **、配置操作系统环境变量** 配置Linux系统的环境变量 \[csu@master0 \~\]$ gedit \~/.bash_profile Or \[csu@master0 \~\]nano \~/.bash_profile 在这个文件的尾部追加下面的代码: #HADOOP export HADOOP_HOME=/home/csu/hadoop-2.6.0 export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH 保存退出后执行"source \~/.bash_profile"命令,使修改后的配置生效。 (同时也要在其他节点进行上述配置) ![](https://i-blog.csdnimg.cn/direct/b320618db153400d884f16752524c1d5.png) ![](https://i-blog.csdnimg.cn/direct/6c40a93e6a3d46b6a512d57bb7b595a5.png) ## **2** **、创建Hadoop** **数据目录** Mkdir /home/csu/hadoopdata 注意,这里的数据目录名"hadoopdata"与前面核心组件文件core-site.xml的配置 \hadoop.tmp.dir\ \/home/csu/hadoopdata\要一致 ![](https://i-blog.csdnimg.cn/direct/ab2b1051f49240839fbc8c02a272787c.png) ## **3、格式化文件系统** \[csu@master0 \~\]$ hdfs namenode -format(主节点) ![](https://i-blog.csdnimg.cn/direct/022b13facd5c496799fc24b85c2c94f6.png) 1. **启动和关闭hadoop** \[csu@master0 \~\]$ cd \~/hadoop-2.6.0 \[csu@master0 hadoop-2.6.0\]$ sbin/start-all.sh (启动) ![](https://i-blog.csdnimg.cn/direct/7d73cb9ac8254d7da257c979357ebada.png) \[csu@master0 hadoop-2.6.0\]$ sbin/stop-all.sh (关闭) **5** **、验证Hadoop** **是否启动成功** \[csu@master0 hadoop-2.6.0\]$ jps 执行jps查看进程,如果有四个进程: SecondaryNameNode、ResourceManager、NameNode和Jps 则表明主节点启动成功 ![](https://i-blog.csdnimg.cn/direct/77a60ad5ec9647b084f771e4f25fbdd8.png) 从节点上执行jps,看到有NodeManager、Jps和DataNode 三个进程表示从节点也安装成功 在firefox浏览器中( 在命令状下直接输入firefox就可以启动firefox浏览器): ![](https://i-blog.csdnimg.cn/direct/fe83f1be3807497d9ad3345f61df4bd7.png) **在地址栏输入http://master0:50070/** **可以查看Hadoop** **运行状态** ![](https://i-blog.csdnimg.cn/direct/c6ff635442b14b7684489caa53cb9d01.png) **在地址栏输入http://master0:18088/** **可以查看Yarn** **运行状态** ![](https://i-blog.csdnimg.cn/direct/dd7e55a0ee7248c2a3cf1f500036caec.png) ------------学习笔记

相关推荐
你觉得2056 小时前
哈尔滨工业大学DeepSeek公开课:探索大模型原理、技术与应用从GPT到DeepSeek|附视频与讲义下载方法
大数据·人工智能·python·gpt·学习·机器学习·aigc
cg50176 小时前
Spring Boot 的配置文件
java·linux·spring boot
啊喜拔牙6 小时前
1. hadoop 集群的常用命令
java·大数据·开发语言·python·scala
别惊鹊6 小时前
MapReduce工作原理
大数据·mapreduce
8K超高清7 小时前
中国8K摄像机:科技赋能文化传承新图景
大数据·人工智能·科技·物联网·智能硬件
暮云星影7 小时前
三、FFmpeg学习笔记
linux·ffmpeg
rainFFrain7 小时前
单例模式与线程安全
linux·运维·服务器·vscode·单例模式
GalaxyPokemon7 小时前
Muduo网络库实现 [九] - EventLoopThread模块
linux·服务器·c++
mingqian_chu7 小时前
ubuntu中使用安卓模拟器
android·linux·ubuntu