如何在IDEA中编写Spark程序

环境搭建

  1. 创建Maven项目
  • 添加Spark依赖(在 pom.xml 中):

<dependency>

<groupId>org.apache.spark</groupId>

<artifactId>spark-core_2.12</artifactId>

<version>3.5.0</version>

</dependency>

  1. 配置Scala SDK
  • 在IDEA中安装Scala插件,设置项目SDK为Scala版本(如2.12)

编写第一个Spark程序

  1. 创建Scala类

import org.apache.spark.{SparkConf, SparkContext}

object SparkWordCount {

def main(args: Array[String]): Unit = {

val conf = new SparkConf().setAppName("WordCount").setMaster("local[*]")

val sc = new SparkContext(conf)

val text = sc.textFile("input.txt")

val words = text.flatMap(_.split(" "))

val counts = words.map(word => (word, 1)).reduceByKey(_ + _)

counts.saveAsTextFile("output")

sc.stop()

}

}

运行与调试

  • 本地调试:设置 setMaster("local[*]") ,直接在IDEA中运行主类。

  • 提交到集群:

  1. 打包项目为JAR(Maven的 package 命令)。

  2. 执行命令:

spark-submit --master yarn --class SparkWordCount /path/to/your.jar hdfs://input.txt

常见问题

  • 依赖冲突:确保Spark和Hadoop版本兼容,使用 provided scope排除冲突依赖。

  • 日志配置:在 src/main/resources 添加 log4j.properties ,简化日志输出。

相关推荐
Test-Sunny15 分钟前
使用编辑器时,富文本编辑器与MD编辑器存在哪些差异
编辑器
QDKuz25 分钟前
VScode切换远程分支,超简单方法
ide·vscode·编辑器
The_cute_cat7 小时前
Vim的初步学习
学习·编辑器·vim
ME10108 小时前
VSCode旧版本远程开发环境配置与故障排查指南
ide·vscode·编辑器
AI视觉网奇8 小时前
vscode 设置默认环境
ide·vscode·编辑器
繁星星繁8 小时前
CMake快速上手
c语言·c++·编辑器·学习方法·visual studio code
ttod_qzstudio8 小时前
将 AntV X6 图编辑器转化为表达式引擎:Vue3 技术方案深度解析之Kimi
编辑器·antvx6
ttod_qzstudio8 小时前
基于 AntV X6 的图形化数值计算表达式编辑器设计与实现之DeepSeek
编辑器·antvx6
my烂笔头8 小时前
vscode\cursor集成plantuml方法
ide·vscode·编辑器·uml
初夏睡觉8 小时前
Markdown编辑器如何使用(上)(详细)
编辑器