数据建设实践之大数平台(六)安装spark

安装spark

上传安装包到/opt/software目录并解压

bash 复制代码
[bigdata@node101 software]$ tar -xvf spark-3.3.1-bin-hadoop3.tgz -C /opt/services/ 
[bigdata@node101 software]$ tar -xvf spark-3.3.1-bin-without-hadoop.tgz -C /opt/services/ 

重命名文件

bash 复制代码
[bigdata@node101 services]$ mv spark-3.3.1-bin-hadoop3 spark-3.3.1 

配置环境变量

bash 复制代码
[bigdata@node101 ~]$ sudo vim /etc/profile.d/bigdata_env.sh 
bash 复制代码
export SPARK_HOME=/opt/services/spark-3.3.1
export PATH=$PATH:$JAVA_HOME/bin:$ZK_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HIVE_HOME/bin:$SPARK_HOME/bin

分发环境变量

bash 复制代码
[bigdata@node101 ~]$ sudo ./bin/xsync /etc/profile.d/bigdata_env.sh 

刷新环境变量,5台机器上执行

bash 复制代码
[bigdata@node101 ~]$ source /etc/profile 

配置spark-env.sh

bash 复制代码
export SPARK_DIST_CLASSPATH=$(hadoop classpath)
export SPARK_HISTORY_OPTS=" 
-Dspark.history.ui.port=18080  
-Dspark.history.fs.logDirectory=hdfs://mycluster:8020/spark-history  
-Dspark.history.retainedApplications=30"

配置spark-defaults.conf

bash 复制代码
[bigdata@node101 conf]$ cp spark-defaults.conf.template  spark-defaults.conf
bash 复制代码
spark.master                       yarn
spark.eventLog.enabled             true
spark.eventLog.dir                 hdfs://mycluster:8020/spark-history
spark.serializer                   org.apache.spark.serializer.KryoSerializer
#启动动态分配
spark.dynamicAllocation.enabled    true
#启用Spark shuffle服务
spark.shuffle.service.enabled    true
#Executor个数初始值
spark.dynamicAllocation.initialExecutors    1
#Executor个数最小值
spark.dynamicAllocation.minExecutors    1
#Executor个数最大值
spark.dynamicAllocation.maxExecutors    6
#Executor空闲时长,若某Executor空闲时间超过此值,则会被关闭
spark.dynamicAllocation.executorIdleTimeout    60s
#积压任务等待时长,若有Task等待时间超过此值,则申请启动新的Executor
spark.dynamicAllocation.schedulerBacklogTimeout    1s
#spark shuffle老版本协议
#spark.shuffle.useOldFetchProtocol true
spark.yarn.historyServer.address=node101:18080
spark.history.ui.port=18080
spark.history.fs.logDirectory=hdfs://mycluster:8020/spark-history

hdfs上创建日志文件

bash 复制代码
[bigdata@node101 conf]$ hdfs dfs -mkdir /spark-history

上传spark-defaults.conf到hive目录下

bash 复制代码
[bigdata@node101 conf]$cp $SPARK_HOME/conf/spark-defaults.conf $HIVE_HOME/conf/

上传hive-exec-3.1.3.jar到纯净版

bash 复制代码
[bigdata@node101 conf]$cp $HIVE_HOME/lib/hive-exec-3.1.3.jar /opt/services/spark-3.3.1-bin-without-hadoop/jars/ 

上传spark-3.3.1-yarn-shuffle.jar

bash 复制代码
[bigdata@node101 conf]$ cp $SPARK_HOME/yarn/spark-3.3.1-yarn-shuffle.jar  /opt/services/hadoop-3.3.5/share/hadoop/yarn/lib/

上传spark jar包到hdfs

bash 复制代码
[bigdata@node101 spark-3.3.1-bin-without-hadoop]$ hdfs dfs -mkdir /spark-jars          
 
[bigdata@node101 spark-3.3.1-bin-without-hadoop]$ hdfs dfs -put ./jars/* /spark-jars

启动历史服务

bash 复制代码
[bigdata@node101 spark-3.3.1]$ sbin/start-history-server.sh 
相关推荐
武子康12 小时前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天13 小时前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
武子康3 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive
武子康4 天前
大数据-235 离线数仓 - 实战:Flume+HDFS+Hive 搭建 ODS/DWD/DWS/ADS 会员分析链路
大数据·后端·apache hive
DianSan_ERP4 天前
电商API接口全链路监控:构建坚不可摧的线上运维防线
大数据·运维·网络·人工智能·git·servlet
够快云库4 天前
能源行业非结构化数据治理实战:从数据沼泽到智能资产
大数据·人工智能·机器学习·企业文件安全
AI周红伟4 天前
周红伟:智能体全栈构建实操:OpenClaw部署+Agent Skills+Seedance+RAG从入门到实战
大数据·人工智能·大模型·智能体
B站计算机毕业设计超人4 天前
计算机毕业设计Django+Vue.js高考推荐系统 高考可视化 大数据毕业设计(源码+LW文档+PPT+详细讲解)
大数据·vue.js·hadoop·django·毕业设计·课程设计·推荐算法
计算机程序猿学长4 天前
大数据毕业设计-基于django的音乐网站数据分析管理系统的设计与实现(源码+LW+部署文档+全bao+远程调试+代码讲解等)
大数据·django·课程设计
B站计算机毕业设计超人4 天前
计算机毕业设计Django+Vue.js音乐推荐系统 音乐可视化 大数据毕业设计 (源码+文档+PPT+讲解)
大数据·vue.js·hadoop·python·spark·django·课程设计