【hadoop】Spark的安装部署

一、单机模式

步骤:

1、使用XFTP将Spark安装包spark-2.4.8-bin-hadoop2.7.tgz发送到master机器的主目录。

2、解压安装包:

复制代码
tar -zxvf ~/spark-2.4.8-bin-hadoop2.7.tgz

3、修改文件夹的名字,将其改为flume,或者创建软连接也可:

复制代码
mv ~/spark-2.4.8-bin-hadoop2.7 ~/spark

4、开箱即用;

二、Spark Standalone模式集群

步骤:

1、使用vim命令配置Spark的环境配置文件,原本应是不存在的:

复制代码
cd ~/spark/conf

vim spark-env.sh

配置内容如下(注意此处的所有路径、主机名):

复制代码
# jdk安装目录

export JAVA_HOME=/home/hadoop/jdk1.8.0_311

# Hadoop配置文件目录

export HADOOP_CONF_DIR=/home/hadoop/hadoop-2.9.2/etc/hadoop

# Hadoop根目录

export HADOOP_HOME=/home/hadoop/hadoop-2.9.2

# Web UI端口号

SPARK_MASTER_WEBUI_PORT=8888

# 配置ZooKeeper

SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=master:2181,slave1:2181,slave2:2181 -Dspark.deploy.zookeeper.dir=/myspark"

修改完后保存。

2、配置slaves:

复制代码
vim slaves

添加以下内容:

复制代码
master

slave1

slave2

3、接着把配置好的Spark安装目录使用scp命令发送到其他节点:

复制代码
scp -r ~/spark hadoop@slave1:~

scp -r ~/spark hadoop@slave2:~

4、启动ZooKeeper,略;

5、在master节点上,带路径启动Spark集群:

复制代码
~/spark/sbin/start-all.sh

测试

浏览器输入:master:8888,如下:

三、Spark on YARN模式

实际上,Spark on YARN模式,即把Spark应用程序跑在YARN集群之上,通过第二节配置好Spark Standalone模式后,已经可以在任意节点上,执行spark-submit脚本把任务提交至YARN实现Spark on YARN。而区别就是使用这种方式提交任务的话,就不需要启动Spark集群了。

相关推荐
Code_Geo4 分钟前
JAVA大数据场景使用StreamingOutput
java·大数据·开发语言·streamingoutput
音符犹如代码9 分钟前
Kafka 技术架构与核心原理深度解析
大数据·微服务·架构·kafka
璞华Purvar10 分钟前
璞华易知ChatBI精彩亮相百度智能云Agent大会,以自然语言驱动企业智能决策
大数据·人工智能
啊吧怪不啊吧37 分钟前
从数据到智能体大模型——cozeAI大模型开发(第二篇)
大数据·ai·语言模型·ai编程
Haooog44 分钟前
Elasticsearch (ES) 面试题清单(不定时更新)
大数据·elasticsearch·搜索引擎·面试
编织幻境的妖1 小时前
Hadoop核心组件及其作用概述
大数据·hadoop·分布式
emfuture1 小时前
传统劳动密集型加工厂,面对日益普及的自动化技术,应如何实现转型升级?
大数据·人工智能·智能制造·工业互联网
云老大TG:@yunlaoda3601 小时前
腾讯云国际站代理商 ACE有什么优势呢?
大数据·云计算·腾讯云
百胜软件@百胜软件3 小时前
重塑零售未来:百胜智能中台+胜券AI,赋能品牌零售撬动3100亿增量市场
大数据·人工智能·零售
小辉懂编程3 小时前
Spark sql 常用时间函数 to_date ,datediff
大数据·sql·spark