【hadoop】Spark的安装部署

一、单机模式

步骤:

1、使用XFTP将Spark安装包spark-2.4.8-bin-hadoop2.7.tgz发送到master机器的主目录。

2、解压安装包:

复制代码
tar -zxvf ~/spark-2.4.8-bin-hadoop2.7.tgz

3、修改文件夹的名字,将其改为flume,或者创建软连接也可:

复制代码
mv ~/spark-2.4.8-bin-hadoop2.7 ~/spark

4、开箱即用;

二、Spark Standalone模式集群

步骤:

1、使用vim命令配置Spark的环境配置文件,原本应是不存在的:

复制代码
cd ~/spark/conf

vim spark-env.sh

配置内容如下(注意此处的所有路径、主机名):

复制代码
# jdk安装目录

export JAVA_HOME=/home/hadoop/jdk1.8.0_311

# Hadoop配置文件目录

export HADOOP_CONF_DIR=/home/hadoop/hadoop-2.9.2/etc/hadoop

# Hadoop根目录

export HADOOP_HOME=/home/hadoop/hadoop-2.9.2

# Web UI端口号

SPARK_MASTER_WEBUI_PORT=8888

# 配置ZooKeeper

SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=master:2181,slave1:2181,slave2:2181 -Dspark.deploy.zookeeper.dir=/myspark"

修改完后保存。

2、配置slaves:

复制代码
vim slaves

添加以下内容:

复制代码
master

slave1

slave2

3、接着把配置好的Spark安装目录使用scp命令发送到其他节点:

复制代码
scp -r ~/spark hadoop@slave1:~

scp -r ~/spark hadoop@slave2:~

4、启动ZooKeeper,略;

5、在master节点上,带路径启动Spark集群:

复制代码
~/spark/sbin/start-all.sh

测试

浏览器输入:master:8888,如下:

三、Spark on YARN模式

实际上,Spark on YARN模式,即把Spark应用程序跑在YARN集群之上,通过第二节配置好Spark Standalone模式后,已经可以在任意节点上,执行spark-submit脚本把任务提交至YARN实现Spark on YARN。而区别就是使用这种方式提交任务的话,就不需要启动Spark集群了。

相关推荐
折哥的程序人生 · 物流技术专研18 小时前
效率翻倍:出版社多库区复合型 ABC 仓储拣选体系全解(含直发/越库/箱式立库/托盘立库)
大数据
Elastic 中国社区官方博客18 小时前
Elasticsearch:智能搜索 - AI builder 及 skills
大数据·人工智能·elasticsearch·搜索引擎·ai·信息可视化·全文检索
跨境摸鱼19 小时前
低价模型承压阶段跨境品牌如何把重心转向复购与客单
大数据·人工智能·跨境电商·亚马逊·跨境
果汁华19 小时前
LangGraph:构建状态化 AI 代理的革命性编排框架
大数据·人工智能
面向Google编程19 小时前
从零学习Kafka:生产者分区机制
大数据·kafka
盘古信息IMS20 小时前
全域场景重构,激活智造新未来!盘古信息机加行业数智化解决方案深度解析
大数据·人工智能
跨境卫士-小汪20 小时前
多国站点利润分化加剧跨境卖家如何重新排优先级
大数据·人工智能·产品运营·跨境电商·跨境
精益数智工坊20 小时前
物料管理是什么?物料管理的具体工作有哪些?
大数据·前端·数据库·人工智能·精益工程
xixixi7777720 小时前
全模态原生大脑降临:GPT-5.5(Spud)发布,推理/编码提升30%,百万上下文+原生电脑控制,开启Agent新纪元
大数据·网络·人工智能·gpt·安全·电脑·量子计算
MoonBit月兔20 小时前
MoonBit 大型软件合成挑战赛决赛暨 Meetup 0.9 版本专场回顾
大数据·开发语言·人工智能·moonbit