spark+scala安装部署

spark安装

1.上传并解压

复制代码
tar -zxvf spark-3.5.0-bin-hadoop3.tgz -C /opt/module/

2.配置环境变量

复制代码
vim /etc/profile.d/my_env.sh

#spark环境变量
export SPARK_HOME=/opt/module/spark-3.5.0
export PATH=$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH

刷新环境变量生效

复制代码
source /etc/profile

3.修改配置文件

进入conf目录下

复制代码
cd /opt/module/spark-3.5.0/conf/

修改spark-env.sh

复制代码
export JAVA_HOME=/opt/module/jdk1.8.0_161
export HADOOP_HOME=/opt/module/hadoop-3.1.4
export HADOOP_CONF_DIR=/opt/module/hadoop-3.1.4/etc/hadoop
export SPARK_MASTER_HOST=master
export SPARK_WORKER_MEMORY=1g
export SPARK_WORKER_CORES=1
export SPARK_MASTER_WEBUI_PORT=8080
复制代码
vim workers
复制代码
vim spark-defaults.conf

4.分发文件

复制代码
scp -r /opt/module/spark-3.5.0/ slave1:/opt/module/
scp -r /opt/module/spark-3.5.0/ slave2:/opt/module/
scp -r /etc/profile.d/my_env.sh slave1:/etc/profile.d/
scp -r /etc/profile.d/my_env.sh slave2:/etc/profile.d/

传完记得分别source刷新

5.启动spark

启动master进程,jps查看

启动worker节点

复制代码
./sbin/start-worker.sh spark://master:7077

报错:问题出在 Spark 无法找到 HDFS 上的/spark-logs目录,这是由于 Spark 的事件日志(Event Log)功能配置了 HDFS 路径,但该路径不存在导致的。

因此在hdfs上创建目录,为了方便赋予权限

复制代码
# 在HDFS上创建spark-logs目录
hdfs dfs -mkdir -p /spark-logs
# 赋予读写权限(根据实际需求调整权限,这里开放所有权限方便测试)
hdfs dfs -chmod 777 /spark-logs

重新启动

复制代码
spark-shell

ctrl+c退出

scala安装

1.上传并解压

复制代码
 tar -zxvf scala-2.12.0.tgz -C /opt/module/

2.启动zookeeper

复制代码
cd /opt/module/zookeeper-3.5.7/bin/

./zkServer.sh start

3.启动journalnode(守护进程)

复制代码
hdfs --daemon start journalnode

4.启动Hadoop

复制代码
start-dfs.sh

start-yarn.sh

5.配置环境变量

复制代码
vim /etc/profile.d/my_env.sh

#scala环境变量
export SCALA_HOME=/opt/module/scala-2.12.0
export PATH=$SCALA_HOME/bin:$PATH

刷新环境变量生效

复制代码
source /etc/profile

6.测试scala

复制代码
scala -version

7.进入并退出scala

scala:进入

:quit:退出

相关推荐
字节跳动数据平台12 小时前
5000 字技术向拆解 | 火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
武子康17 小时前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
字节跳动数据平台2 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术2 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
武子康2 天前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
武子康3 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天3 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
武子康5 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive
肌肉娃子5 天前
20260227.spark.Spark 性能刺客:千万别在 for 循环里写 withColumn
spark
武子康6 天前
大数据-235 离线数仓 - 实战:Flume+HDFS+Hive 搭建 ODS/DWD/DWS/ADS 会员分析链路
大数据·后端·apache hive