Spark入门02-Spark开发环境配置(idea环境)

安装与配置Spark开发环境

1.下载解压安装包

https://archive.apache.org/dist/spark/spark-2.1.2/

https://mirrors.tuna.tsinghua.edu.cn/apache/spark/spark-3.3.4/

2、新建Scala项目

参考https://blog.csdn.net/weixin_38383877/article/details/135894760

3、项目中引入spark的jar文件

第一步:

第二步:

相关推荐
Deepoch1 天前
Deepoc具身模型开发板:为机械臂清洁机器人注入“智慧灵魂”
大数据·科技·机器人·机械臂·清洁机器人·具身模型·deepoc
Eward-an1 天前
华为ModelEngine全流程评测:从智能体开发到应用编排,解锁企业级AI开发新范式
大数据·人工智能
tang777891 天前
哪些行业用动态代理ip?哪些行业用静态代理IP?怎样区分动态ip和静态ip?(互联网人必码·实用长文)
大数据·网络·爬虫·python·网络协议·tcp/ip·智能路由器
你这个代码我看不懂1 天前
POD重启问题排查
分布式
九硕智慧建筑一体化厂家1 天前
DDC:看似普通的存在,在楼宇自控系统中却主宰智能建筑高效运行?
大数据·运维·人工智能·网络协议·制造·设计规范
Apache Flink1 天前
(二)走进阿里云实时计算Flink版|场景案例篇
大数据·阿里云·flink·云计算
laozhao4321 天前
浪潮298.00万中标甘肃能源化工集团财务信息化系统项目
大数据·人工智能
北京软秦科技有限公司1 天前
IACheck助力能源电力检测报告智能审核:AI报告审核提升质量与效率
大数据·人工智能·能源
大尚来也1 天前
渲染性能的隐形守护者:深度解析虚拟DOM的运作机制与优化哲学
大数据
大大大大晴天1 天前
Flink生产问题排障-DAG膨胀导致JobManagerOOM
大数据·flink