1、上传Hadoop安装包至linux并解压
bash
tar -zxvf hadoop-2.6.0-cdh5.15.2.tar.gz
安装包:
链接:https://pan.baidu.com/s/1u59OLTJctKmm9YVWr_F-Cg
提取码:0pfj

2、配置免密码登录
生成秘钥:
bash
ssh-keygen -t rsa -P ''
将秘钥写入认证文件:
bash
cd ~/.ssh
cat id_rsa.pub >> ~/.ssh/authorized_keys
修改认证文件权限:
bash
chmod 600 ~/.ssh/authorized_keys
3、配置环境变量
将 Hadoop 加入环境变量 /etc/profile :
bash
vi /etc/profile

4、修改Hadoop配置文件
1 ) 修改hadoop-env.sh 文件
bash
vi /usr/local/hadoop-2.6.0-cdh5.15.2/etc/hadoop/hadoop-env.sh
修改 JAVA_HOME :(这里要改成你自己linux中的jdk路径)
bash
export JAVA_HOME=/usr/local/jdk1.8.0_181
2 )修改 core-site.xml 文件
XML
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://lcc:9090</value>
</property>
</configuration>
- 修改 hdfs-site.xml 文件
XML
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop-2.6.0-cdh5.15.2/tmp</value>
</property>
</configuration>
- 修改mapred-site.xml文件
bash
cp mapred-site.xml.template mapred-site.xml
vi mapred-site.xml
XML
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
5 )修改 slaves 文件
bash
vi slaves
改成上面的 lcc(这里就是你的一个主机名,注意要在hosts文件中配置好 ip地址 主机名)
这里配置的是单节点, 指向本机主机名称。
6)修改yarn-site.xml
XML
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
5、启动Hadoop服务
进入到sbin目录
bash
cd /usr/local/hadoop-2.6.0-cdh5.15.2/sbin/
执行启动脚本
bash
./start-all.sh

上传一个文件, 用于测试:
XML
hdfs dfs -put /usr/local/hadoop-2.6.0-cdh5.15.2/etc/hadoop/hadoop-env.sh /
如果遇到如下报错:

请执行以下命令解决

再次重新执行hdfs上传即可
6、访问验证


至此Hadoop单机版安装完毕