【spark--scala】--环境配置

文章目录

scala

官网下载二进制包

添加环境变量

bash 复制代码
#set scala
export SCALA_HOME=/usr/local/src/scala-2.11.8
export PATH=$PATH:$SCALA_HOME/bin

spark

官网下载二进制包

解压后

spark/conf

bash 复制代码
cp slaves.template slaves
cp spark-env.sh.template spark-env.sh



# slaves中写两个从节点ip

# spark-env.sh 中
export JAVA_HOME=/usr/local/src/java
export SPARK_MASTER_HOST=master01
export HADOOP_CONF_DIR=/usr/local/src/hadoop/etc/hadoop
相关推荐
恒拓高科WorkPlus10 分钟前
BeeWorks:打造安全可控的企业内网即时通讯平台
大数据·人工智能·安全
恒拓高科WorkPlus1 小时前
一款安全好用的企业即时通讯平台,支持统一门户
大数据·人工智能·安全
Debug_TheWorld2 小时前
Kafka学习
大数据·中间件
迷人的小荔枝2 小时前
spark-core
spark
BenBen尔4 小时前
spark的堆外内存,是在jvm内还是操作系统内存内?
大数据·jvm·hadoop·spark
EasyDSS5 小时前
WebRTC实时通话EasyRTC嵌入式音视频通信SDK,构建智慧医疗远程会诊高效方案
大数据·网络·网络协议·音视频
AWS官方合作商6 小时前
应对海量数据归档难题?AWS Glacier 的低成本冷存储解决方案实践指南
大数据·云计算·aws
IT成长日记6 小时前
Hadoop文件操作指南:深入解析文件操作
大数据·hadoop·分布式
派可数据BI可视化7 小时前
数据中台、BI业务访谈(三):如何选择合适的访谈对象
大数据·信息可视化·数据挖掘·数据分析·商业智能bi
AI糊涂是福7 小时前
数字政府与智慧城市区别报告分析
大数据·人工智能·机器学习·架构·智慧城市