linux安装hadoop

目录

jdk安装配置

hadoop安装

hadoop配置

配置ssh免密登录

启动hadoop

实现文件上传下载

eclipse安装配置


jdk安装配置

1、删除centos自带的jdk

yum list installed | grep java
yum remove *openjdk*

2、下载jdk安装包

wget --no-check-certificate https://repo.huaweicloud.com/java/jdk/8u151-b12/jdk-8u151-linux-x64.tar.gz

3、解压安装包

tar -zxvf jdk-8u151-linux-x64.tar.gz

4、移动并重命名

mv jdk1.8.0_151/ /usr/java8

5、配置java环境变量

echo 'export JAVA_HOME=/usr/java8' >> /etc/profile
echo 'export PATH=$PATH:$JAVA_HOME/bin' >> /etc/profile

6、刷新配置

source /etc/profile

7、检查

java -version

hadoop安装

1、下载hadoop安装包

wget --no-check-certificate https://repo.huaweicloud.com/apache/hadoop/common/hadoop-3.1.3/hadoop-3.1.3.tar.gz

2、解压到指定文件夹

tar -zxvf hadoop-3.1.3.tar.gz -C /opt/

3、重命名

mv /opt/hadoop-3.1.3 /opt/hadoop

4、配置hadoop环境变量

echo 'export HADOOP_HOME=/opt/hadoop/' >> /etc/profile
echo 'export PATH=$PATH:$HADOOP_HOME/bin' >> /etc/profile
echo 'export PATH=$PATH:$HADOOP_HOME/sbin' >> /etc/profile

5、刷新配置

source /etc/profile

6、修改yarn-env.sh和hadoop-env.sh配置文件

echo "export JAVA_HOME=/usr/java8" >> /opt/hadoop/etc/hadoop/yarn-env.sh
echo "export JAVA_HOME=/usr/java8" >> /opt/hadoop/etc/hadoop/hadoop-env.sh

7、检查

hadoop version

hadoop配置

1、修改Hadoop配置文件core-site.xml

vim /opt/hadoop/etc/hadoop/core-site.xml

在<configuration></configuration>节点内插入如下内容:

<property>
       <name>hadoop.tmp.dir</name>
       <value>file:/opt/hadoop/tmp</value>
       <description>location to store temporary files</description>
   </property>
   <property>
       <name>fs.defaultFS</name>
       <value>hdfs://localhost:9000</value>
   </property>

2、修改Hadoop配置文件hdfs-site.xml

vim /opt/hadoop/etc/hadoop/hdfs-site.xml

在<configuration></configuration>节点内插入如下内容:

<property>
       <name>dfs.replication</name>
       <value>1</value>
   </property>
   <property>
       <name>dfs.namenode.name.dir</name>
       <value>file:/opt/hadoop/tmp/dfs/name</value>
   </property>
   <property>
       <name>dfs.datanode.data.dir</name>
       <value>file:/opt/hadoop/tmp/dfs/data</value>
   </property>

配置ssh免密登录

1、生成秘钥:ssh-keygen -t rsa

2、私钥存在本机~/.ssh目录下,公钥改名为authorized_keys

3、检查:ssh可以免密登录

(如果一台机子有多个公钥,需要都放在authorezed_keys文件中)


启动hadoop

1、修改配置文件hadoop-env.sh

vim /opt/hadoop/etc/hadoop/hadoop-env.sh
将export JAVA_HOME改成export JAVA_HOME=/usr/java8

2、修改配置文件start-dfs.sh和stop-dfs.sh

vim /opt/hadoop/sbin/start-dfs.sh

在头部添加如下内容

HDFS_DATANODE_USER=root
HDFS_DATANODE_SECURE_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

在stop-dfs.sh配置文件头部也添加同样的内容。

3、修改配置文件start-yarn.sh和stop-yarn.sh

vim /opt/hadoop/sbin/start-yarn.sh

在头部添加如下内容:

YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root

4、初始化namenode

hadoop namenode -format

5、启动hadoop

start-dfs.sh
start-yarn.sh

(也可以直接start-all.sh)

6、产看启动成功的进程

jps

如果出现namenode、datanode、nodemanager、jps说明启动成功

7、访问端口:8042和9870、8088

如果拒绝访问,可以关闭防火墙,或者配置防火墙策略。


实现文件上传下载

1、先在hdfs文件系统根目录下新建work1目录,用于管理文件的上传和下载:

hadoop fs -mkdir /work1

2、产看目录是否建立成功:

hadoop fs -ls /

3、将服务器上的/opt/hd/a.txt文件上传到hdfs:

hadoop fs -put /opt/hd/a.txt /work1

4、查看文件是否上传成功:

访问:192.168.100.131:9870:

进入work1目录:

点击download即可下载:


eclipse安装配置

1、下载eclipse-jee-2024-09-R-linux-gtk-x86_64.tar.gz压缩包放到/usr/local/eclipse目录下解压:

cd /usr/local/eclipse
tar -xvf eclipse-jee-2024-09-R-linux-gtk-x86_64.tar.gz

2、下载hadoop-eclipse-plugin-2.6.0.jar包,放到eclipse的plugin目录下

3、运行eclipse:

cd /usr/local/eclipse/eclipse
./eclipse

打开软件后,workspace选择默认即可:

安装配置完成



相关推荐
孫治AllenSun44 分钟前
【shell】常用100个shell命令使用讲解
java·linux·服务器
.生产的驴1 小时前
SpringBoot 开启热部署 项目热启动 一键调试无需 无需重启
java·运维·开发语言·spring boot·后端·spring·eclipse
kaoa0001 小时前
Linux入门攻坚——42、Nginx及web站点架构模式
linux·前端·nginx
上海运维Q先生1 小时前
面试题整理3----nc命令的常见用法
linux
KawYang1 小时前
xxl-job 整合 Seatunnel 实现定时任务
linux·服务器·数据库
白帽黑客26592 小时前
入门网络安全工程师要学习哪些内容【2025年寒假最新学习计划】
linux·python·web安全·网络安全·系统安全·密码学·ddos
打码人的日常分享2 小时前
【系统测试文档】系统测试计划,系统测试报告书,测试方案,测试记录,测试用例(Word原件)
运维·安全·系统安全·测试用例·需求分析·规格说明书
陈小也~2 小时前
VMware虚拟机Ubuntu 18.04版本 磁盘扩容
linux·ubuntu
-指短琴长-3 小时前
Linux从0到1——线程自定义封装
linux·运维·c++
信创极客3 小时前
Linux系统内存带宽读写性能测试工具Stream
linux·运维·服务器