首先jdk安装完毕
jdk安装文档参考:
Linux 环境下安装JDK1.8并配置环境变量_linux安装jdk1.8并配置环境变量_Xi-Yuan的博客-CSDN博客
准备好hadoop的安装包
我的下载地址如下:
We Transfer Gratuit. Envoi sécurisé de gros fichiers.
将hadoop包上传到随便一个目录,但是解压缩到/opt/ 目录下
tar -zvxf /home/hadoop-3.1.3.tar.gz -C /opt/
cd /opt/hadoop-2.9.2/etc/hadoop
#修JAVA_HOME
export JAVA_HOME=/usr/opt/java/jdk1.8.0_339
cd /opt/hadoop-2.9.2/etc/hadoop/vi core-site.xml
#要添加的配置内容
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.137.15:9000</value>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.137.15:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadooptmp</value>
</property>
配置hdfs-site.xml,制定hdfs保存数据的副本数量,伪分布式只有一个节点,所以填写1<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/home/hadoopname</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/hadoopdata</value>
</property>
配置mapred-site.xml:原本hadoop文件下没有这个文件,我们copy一个出来cp mapred-site.xml.template mapred-site.xml
vi mapred-site.xml
#添加以下内容
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
vi yarn-site.xml添加两个属性,第一个告诉nodemanager获取数据的方式为shuffle
<property>
<name>yarn.nodemanager.aux-service</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop</value>
</property>
添加hadoop的路径vi /etc/profile
export HADOOP_HOME=/opt/hadoop-2.9.2
export PATH=HADOOP_HOME/bin:HADOOP_HOME/sbin:$PATH
然后生效
source /etc/profile
域名hosts绑定vi /etc/hosts
#添加本机ip与hosts的绑定
192.168.137.15 hadoop
配置主机的免密登录cd /root/
如果本机没有登录过其它机器时,本地是没有/root/.ssh文件夹的,只需要 ssh hadoop 登录一次就会自动创建了
cd .ssh
ssh-keygen -t rsa
cat id_rsa.pub >> authorized_keys
#测试免输入密码
ssh hadoop
开始初始化和启动hadoop初始化:
先格式化:
cd /opt/hadoop-2.9.2/etc/hadoop/
hadoop namenode -format
启动cd /opt/hadoop-2.9.2/sbin
./start-all.sh
jps命令查看已经启动的进程
测试hdfs命令查看根目录下是否有东西,如果没有则自己新建两个看下哦效果
cd /opt/hadoop-2.9.2/bin
hadoop fs -ls /
hadoop fs -mkdir /test
hadoop fs -mkdir /rt
再次查看
#浏览器测试,输入地址http://192.168.137.15:50070/
ip地址为hadoop虚拟机的ip