大数据环境搭建

目录

一:虚拟机:VirtualBox

二:Shell工具:MobaXterm

三:安装脚本

四:JDK和Hadoop

4.1:安装

4.2:启动

4.3:Hadoop可视化访问

4.4:关机


一:虚拟机:VirtualBox

VirtualBox-6.0.24-139119-Win

1.1:默认配置

1.2:导入3个node

1.3:启动三个node

(有的电脑可能启动失败可以看看:VirtualBox 不能为虚拟电脑打开一个新任务(Failed to get device handle and/or partition ID for 0000000001c5fb30 )-CSDN博客

二:Shell工具:MobaXterm

下载地址:
MobaXterm Xserver with SSH, telnet, RDP, VNC and X11 - Home Edition

shell工具连接三个虚拟机

三台机器地址分别是192.168.56.151、192.168.56.152​​​、192.168.56.153

账号root 密码123456

三:安装脚本

复制代码
git clone https://gitee.com/several-boats/playground.git
cd playground/
chmod +x playground.sh
./playground.sh install
source /etc/profile
cd ~

四:JDK和Hadoop

4.1:安装

复制代码
先把两个安装包(hadoop-3.3.6.tar.gz\jdk-8u191-linux-x64.tar.gz)用shell工具拖拽到/root下
复制代码
playground add jdk-8u191-linux-x64.tar.gz
playground add hadoop-3.3.6.tar.gz
playground init
复制代码
以上信息是否正确---y
是否安装JDK--yes
是否修改jdk信息--n
复制代码
source /etc/profile
java -version
playground config hadoop
复制代码
是否要更新-- y
安装包序列号---1(选Hadoop)
需要安装到哪些节点---node01,node02,node03
主节点---node01
复制代码
playground update config
playground install hadoop
source /etc/profile
复制代码
是否修改Hadoop安装信息--n
复制代码
source /etc/profile
hadoop namenode -format --force
cd ~

4.2:启动

复制代码
cd ~
start-all.sh

安装完后再对另两个机器进行source /etc/profile命令

4.3:Hadoop可视化访问

HDFS:

192.168.56.151:9870----Hadoop3

192.168.56.151:50070----Hadoop2

里面有一些值得看的信息Live Nodes表示存活的节点

Yarn:

192.168.56.151:8088

4.4:关机

复制代码
cd ~
stop-all.sh

点击virtualBox三个node,点击停止-正常关机

平常最好备份下

相关推荐
Theodore_10228 小时前
大数据(2) 大数据处理架构Hadoop
大数据·服务器·hadoop·分布式·ubuntu·架构
簌簌曌9 小时前
CentOS7 + JDK8 虚拟机安装与 Hadoop + Spark 集群搭建实践
大数据·hadoop·spark
Theodore_102211 小时前
大数据(1) 大数据概述
大数据·hadoop·数据分析·spark·hbase
IvanCodes13 小时前
六、Sqoop 导出
大数据·hadoop·sqoop
weixin_4723394615 小时前
Doris查询Hive数据:实现高效跨数据源分析的实践指南
数据仓库·hive·hadoop
火龙谷16 小时前
【hadoop】相关集群开启命令
大数据·hadoop·分布式
神奇侠20241 天前
Hive SQL常见操作
hive·hadoop·sql
TDengine (老段)2 天前
TDengine 替换 Hadoop,彻底解决数据丢失问题 !
大数据·数据库·hadoop·物联网·时序数据库·tdengine·涛思数据
火龙谷3 天前
【hadoop】Davinci数据可视化工具的安装部署
大数据·hadoop·分布式
£菜鸟也有梦3 天前
从0到1,带你走进Flink的世界
大数据·hadoop·flink·spark