伪分布式Spark集群搭建

一、软件环境

|-------------|-------------|---------------------------------------------|
| | | |
| VMware虚拟机 | 16 | VMware-workstation-full-16.2.2-19200509.exe |
| SSH连接工具 | | FinalShell |
| Linux OS | CentOS7.5 | CentOS-7.5-x86_64-DVD-1804.iso |
| JDK | 1.8 | jdk-8u161-linux-x64.tar.gz |
| Spark | 3.2.1 | spark-3.2.1-bin-hadoop2.7.tgz |

二、实训操作步骤

技能点1:Final Shell连接虚拟机

①打开虚拟机终端,输入命令ifconfig,查看虚拟机的IP地址。

②打开Final Shell,进行SSH连接虚拟机。

③设置IP地址,使用root账户和密码进行连接登录。

技能点2:上传Spark安装包并解压

①上传Spark安装包

使用FinalShell软件将HBase安装包spark-3.2.1-bin-hadoop2.7.tgz上传至虚拟机的/opt目录下。

②解压Spark安装包

使用"tar"命令将HBase解压至/usr/local目录下,具体命令如下:

tar -zxvf /opt/spark-3.2.1-bin-hadoop2.7.tgz -C /usr/local/

技能点3:配置spark-env.sh文件

①进入到Spark安装包的conf目录下,具体命令如下:

cd /usr/local/spark-3.2.1-bin-hadoop2.7/conf

②将spark-env.sh.template复制为spark-env.sh,具体命令如下:

cp spark-env.sh.template spark-env.sh

③输入"vi spark-env.sh"命令,打开文件,在文件末尾添加如下代码:

#Jdk安装路径

export JAVA_HOME=/usr/local/jdk1.8.0_161      

#Hadoop安装路径

export HADOOP_HOME=/usr/local/hadoop-3.1.4

#Hadoop配置文件的路径                

export HADOOP_CONF_DIR=/usr/local/hadoop-3.1.4/etc/hadoop    

#Spark主节点的IP地址或机器名

export SPARK_MASTER_IP=hadoop                                                            

#Spark本地的IP地址或机器名

export SPARK_LOCAL_IP=hadoop  

技能点4:启动测试Spark集群

①目录切换到sbin目录下启动集群。

#进入到sbin目录下
cd /usr/local/spark-3.2.1-bin-hadoop2.7/sbin

#启动spark集群

./start-all.sh

②jps查看进程。

③切换到Spark安装包的/bin目录下(cd /usr/local/spark-3.2.1-bin-hadoop2.7/bin),使用SparkPi来计算Pi的值。

#切换到Spark安装包的/bin目录下
cd /usr/local/spark-3.2.1-bin-hadoop2.7/bin
#运行程序
./run-example SparkPi 2

技能点5:浏览器访问Spark 页面

①关闭防火墙 输入命令"systemctl stop firewalld.service"

②打开浏览器访问Spark自带web页面 浏览器输入网址:http://192.168.15.128:8080/

③效果图如下

相关推荐
Kobebryant-Manba10 分钟前
kafka基本概念
分布式·学习·kafka
蚂蚁数据AntData14 分钟前
流批一体向量化计算引擎 Flex 在蚂蚁的探索和实践
大数据·数据仓库·spark·数据库架构
hanbarger1 小时前
分布式通信,微服务协调组件,zookeeper
分布式·zookeeper·中间件
奥顺互联V2 小时前
深入理解 ThinkPHP:框架结构与核心概念详解
大数据·mysql·开源·php
郭源潮3453 小时前
Hadoop
大数据·hadoop·分布式
中科岩创3 小时前
中科岩创桥梁自动化监测解决方案
大数据·网络·物联网
百家方案3 小时前
「下载」智慧产业园区-数字孪生建设解决方案:重构产业全景图,打造虚实结合的园区数字化底座
大数据·人工智能·智慧园区·数智化园区
forestsea3 小时前
【Elasticsearch】分片与副本机制:优化数据存储与查询性能
大数据·elasticsearch·搜索引擎
开着拖拉机回家3 小时前
【Ambari】使用 Knox 进行 LDAP 身份认证
大数据·hadoop·gateway·ambari·ldap·knox
地球资源数据云4 小时前
全国30米分辨率逐年植被覆盖度(FVC)数据集
大数据·运维·服务器·数据库·均值算法