伪分布式Spark集群搭建

一、软件环境

|-------------|-------------|---------------------------------------------|
| | | |
| VMware虚拟机 | 16 | VMware-workstation-full-16.2.2-19200509.exe |
| SSH连接工具 | | FinalShell |
| Linux OS | CentOS7.5 | CentOS-7.5-x86_64-DVD-1804.iso |
| JDK | 1.8 | jdk-8u161-linux-x64.tar.gz |
| Spark | 3.2.1 | spark-3.2.1-bin-hadoop2.7.tgz |

二、实训操作步骤

技能点1:Final Shell连接虚拟机

①打开虚拟机终端,输入命令ifconfig,查看虚拟机的IP地址。

②打开Final Shell,进行SSH连接虚拟机。

③设置IP地址,使用root账户和密码进行连接登录。

技能点2:上传Spark安装包并解压

①上传Spark安装包

使用FinalShell软件将HBase安装包spark-3.2.1-bin-hadoop2.7.tgz上传至虚拟机的/opt目录下。

②解压Spark安装包

使用"tar"命令将HBase解压至/usr/local目录下,具体命令如下:

tar -zxvf /opt/spark-3.2.1-bin-hadoop2.7.tgz -C /usr/local/

技能点3:配置spark-env.sh文件

①进入到Spark安装包的conf目录下,具体命令如下:

cd /usr/local/spark-3.2.1-bin-hadoop2.7/conf

②将spark-env.sh.template复制为spark-env.sh,具体命令如下:

cp spark-env.sh.template spark-env.sh

③输入"vi spark-env.sh"命令,打开文件,在文件末尾添加如下代码:

#Jdk安装路径

export JAVA_HOME=/usr/local/jdk1.8.0_161      

#Hadoop安装路径

export HADOOP_HOME=/usr/local/hadoop-3.1.4

#Hadoop配置文件的路径                

export HADOOP_CONF_DIR=/usr/local/hadoop-3.1.4/etc/hadoop    

#Spark主节点的IP地址或机器名

export SPARK_MASTER_IP=hadoop                                                            

#Spark本地的IP地址或机器名

export SPARK_LOCAL_IP=hadoop  

技能点4:启动测试Spark集群

①目录切换到sbin目录下启动集群。

#进入到sbin目录下
cd /usr/local/spark-3.2.1-bin-hadoop2.7/sbin

#启动spark集群

./start-all.sh

②jps查看进程。

③切换到Spark安装包的/bin目录下(cd /usr/local/spark-3.2.1-bin-hadoop2.7/bin),使用SparkPi来计算Pi的值。

#切换到Spark安装包的/bin目录下
cd /usr/local/spark-3.2.1-bin-hadoop2.7/bin
#运行程序
./run-example SparkPi 2

技能点5:浏览器访问Spark 页面

①关闭防火墙 输入命令"systemctl stop firewalld.service"

②打开浏览器访问Spark自带web页面 浏览器输入网址:http://192.168.15.128:8080/

③效果图如下

相关推荐
一张假钞2 小时前
Spark的基本概念
大数据·分布式·spark
一张假钞2 小时前
Spark On Yarn External Shuffle Service
大数据·分布式·spark
大秦王多鱼2 小时前
Kafka SASL/SCRAM介绍
分布式·安全·kafka·apache
优人ovo4 小时前
详解Kafka并行计算架构
分布式·架构·kafka
S-X-S13 小时前
RabbitMQ持久化队列配置修改问题
分布式·rabbitmq
Elastic 中国社区官方博客15 小时前
使用真实 Elasticsearch 进行高级集成测试
大数据·数据库·elasticsearch·搜索引擎·全文检索·jenkins·集成测试
一张假钞15 小时前
Spark SQL读写Hive Table部署
hive·sql·spark
好记性+烂笔头16 小时前
4 Spark Streaming
大数据·ajax·spark
圣心17 小时前
Kafka 使用说明(kafka官方文档中文)
分布式·kafka·linq
圣心17 小时前
Kafka中文文档
分布式·kafka