hadoop伪分布式安装部署

首先jdk安装完毕

jdk安装文档参考:

Linux 环境下安装JDK1.8并配置环境变量_linux安装jdk1.8并配置环境变量_Xi-Yuan的博客-CSDN博客

准备好hadoop的安装包

我的下载地址如下:

We Transfer Gratuit. Envoi sécurisé de gros fichiers.

将hadoop包上传到随便一个目录,但是解压缩到/opt/ 目录下

tar -zvxf /home/hadoop-3.1.3.tar.gz -C /opt/

cd /opt/hadoop-2.9.2/etc/hadoop

vi hadoop-env.sh

#修JAVA_HOME

export JAVA_HOME=/usr/opt/java/jdk1.8.0_339
cd /opt/hadoop-2.9.2/etc/hadoop/

vi core-site.xml

#要添加的配置内容

<property>

<name>fs.default.name</name>

<value>hdfs://192.168.137.15:9000</value>

</property>

<property>

<name>fs.defaultFS</name>

<value>hdfs://192.168.137.15:9000</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/home/hadooptmp</value>

</property>


配置hdfs-site.xml,制定hdfs保存数据的副本数量,伪分布式只有一个节点,所以填写1

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

<property>

<name>dfs.name.dir</name>

<value>/home/hadoopname</value>

</property>

<property>

<name>dfs.data.dir</name>

<value>/home/hadoopdata</value>

</property>
配置mapred-site.xml:原本hadoop文件下没有这个文件,我们copy一个出来

cp mapred-site.xml.template mapred-site.xml

vi mapred-site.xml

#添加以下内容

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>
vi yarn-site.xml

添加两个属性,第一个告诉nodemanager获取数据的方式为shuffle

<property>

<name>yarn.nodemanager.aux-service</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.resourcemanager.hostname</name>

<value>hadoop</value>

</property>
添加hadoop的路径

vi /etc/profile

export HADOOP_HOME=/opt/hadoop-2.9.2

export PATH=HADOOP_HOME/bin:HADOOP_HOME/sbin:$PATH

然后生效

source /etc/profile


域名hosts绑定

vi /etc/hosts

#添加本机ip与hosts的绑定

192.168.137.15 hadoop


配置主机的免密登录

cd /root/

如果本机没有登录过其它机器时,本地是没有/root/.ssh文件夹的,只需要 ssh hadoop 登录一次就会自动创建了

cd .ssh

ssh-keygen -t rsa

cat id_rsa.pub >> authorized_keys

#测试免输入密码

ssh hadoop
开始初始化和启动hadoop

初始化:

先格式化:

cd /opt/hadoop-2.9.2/etc/hadoop/

hadoop namenode -format


启动

cd /opt/hadoop-2.9.2/sbin

./start-all.sh

jps命令查看已经启动的进程


测试hdfs命令

查看根目录下是否有东西,如果没有则自己新建两个看下哦效果

cd /opt/hadoop-2.9.2/bin

hadoop fs -ls /

hadoop fs -mkdir /test

hadoop fs -mkdir /rt

再次查看

#浏览器测试,输入地址http://192.168.137.15:50070/

ip地址为hadoop虚拟机的ip

相关推荐
科研服务器mike_leeso9 分钟前
41 年 7 次转型!戴尔从 PC 到 AI 工厂的技术跃迁与组织重构
大数据·人工智能·机器学习
2501_9139817831 分钟前
2025年智能家居无线数传设备品牌方案精选
大数据·人工智能·智能家居
hweiyu0036 分钟前
Linux运维实战:云原生设计与实施Docker&K8S(视频教程)
linux·运维·云原生
海棠蚀omo1 小时前
Linux操作系统-命令行参数及环境变量
linux·操作系统
想ai抽1 小时前
吃透大数据算法-算法地图(备用)
大数据·数据库·spark
还是大剑师兰特1 小时前
Hadoop面试题及详细答案 110题 (96-105)-- Hadoop性能优化
hadoop·大剑师·hadoop面试题
小白不想白a1 小时前
【shell】每日shell练习(系统用户安全审计/系统日志错误分析)
linux·运维·云原生
码猫Mrr1 小时前
创维E900V22D刷入armbian hdmi开机花屏和网络无法使用 解决方式【亲测】
linux·armbian·e900v22d
Cx330❀2 小时前
《Linux基础入门指令(二)》:从零开始理解Linux系统
linux·运维·服务器·网络·经验分享
武子康2 小时前
大数据-126 - Flink一文搞懂有状态计算:State Backend 工作原理与性能差异详解 核心原理与作用
大数据·后端·flink