Spark入门02-Spark开发环境配置(idea环境)

安装与配置Spark开发环境

1.下载解压安装包

https://archive.apache.org/dist/spark/spark-2.1.2/

https://mirrors.tuna.tsinghua.edu.cn/apache/spark/spark-3.3.4/

2、新建Scala项目

参考https://blog.csdn.net/weixin_38383877/article/details/135894760

3、项目中引入spark的jar文件

第一步:

第二步:

相关推荐
秃头菜狗1 小时前
八、安装 Hadoop
大数据·hadoop·分布式
H3C-Navigator5 小时前
RPC在分布式存储系统中的应用
分布式·网络协议·rpc
李慕婉学姐6 小时前
【开题答辩过程】以《分布式菌菇销售系统》为例,不会开题答辩的可以进来看看
分布式
毕设源码-郭学长8 小时前
【开题答辩全过程】以 Python基于大数据的四川旅游景点数据分析与可视化为例,包含答辩的问题和答案
大数据·python·数据分析
顧棟8 小时前
【HDFS实战】HADOOP 机架感知能力-HDFS
大数据·hadoop·hdfs
亚林瓜子9 小时前
AWS中国云中的ETL之从aurora搬数据到s3(Glue版)
hadoop·spark·云计算·etl·aws
Hello.Reader10 小时前
Kafka 安全性认证、加密、授权与落地最佳实践
分布式·kafka
程序员果子11 小时前
Kafka 深度剖析:架构演进、核心概念与设计精髓
大数据·运维·分布式·中间件·架构·kafka
isfox12 小时前
Hadoop RPC深度解析:分布式通信的核心机制
大数据
神仙别闹12 小时前
基于Go语言实现分布式类地球模拟系统
分布式