被关在idea小黑屏里写spark程序

一、先在idea中添加Scala插件

二、使用Maven创建新项目

1.启动idea,选择新建项目。之后的设置如下:

2.将Scala添加到全局库中(注意:Scala的版本不宜太高,最好是2-12.否则后面会报下面这个错误

复制代码
E:\tool接口\SparkCore_01\src\main\scala\WordCount.scala:16:9
illegal cyclic inheritance involving trait Iterable
    val counts = textFiles

3.设置maven依赖项。修改pom.xml文件,添加如下:

XML 复制代码
<!--  添加依赖:  scala-library spark-core-->
    <dependencies>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-core_2.12</artifactId>
            <version>3.1.2</version>
        </dependency>
        <dependency>
            <groupId>org.scala-lang</groupId>
            <artifactId>scala-library</artifactId>
            <version>2.12.15</version>
        </dependency>
    </dependencies>

4.下载依赖。添加完成之后,刷新Maven,它会帮助我们去下载依赖。

5.编写代码。修改文件夹的名字。(注意:是在重构里面有重命名)

6.新建Scala类。如果这里没有看到Scala类的选项,就去检查第2步。(如果没有出现scala类,请再次添加全局库。)

7.选择Object,输入WordCount

8.编写代码如下

Scala 复制代码
import org.apache.spark.{SparkConf, SparkContext}
object WordCount{
  def main(args: Array[String]): Unit = {
    // 配置 Spark 应用程序
    val conf = new SparkConf().setAppName("WordCount").setMaster("local[*]")
    // 创建 SparkContext 对象
    val sc = new SparkContext(conf)

    // 读取目录下的所有文本文件
    val textFiles = sc.wholeTextFiles("input")

    // 提取文本内容并执行 WordCount 操作
    val counts = textFiles.flatMap { case (_, content) => content.split("\\s+") }.map(word => (word, 1)).reduceByKey(_ + _)

    // 将所有分区的数据合并成一个分区
    val singlePartitionCounts = counts.coalesce(1)
    // 保存结果到文件
    singlePartitionCounts.saveAsTextFile("output")
    // 停止 SparkContext
    sc.stop()
  }
}

9.准备待统计的词频文件。在项目根目录下建立文件夹input,并穿件两个文本文件:word1.txt, word2.txt。文本内容随意。

10.运行代码。点击运行代码。(红色无所谓,只要后面出现:进程已结束,退出代码为 0。这句就是对的。)

11.生成结果如下。

相关推荐
一瓢西湖水4 分钟前
浅谈eclipse memory analyzer的应用
java·eclipse
愚公移码10 分钟前
蓝凌EKP产品:理解连接池、理解Hikari和Druid 区别
java·oracle·hibernate
天远Date Lab11 分钟前
构建金融级风控中台:Java Spring Boot 集成天远借贷风险探查 API 实战
java·大数据·spring boot·金融
Han.miracle20 分钟前
数据结构与算法-012
java·开发语言
计算机毕设指导624 分钟前
基于微信小程序+django连锁火锅智慧餐饮管理系统【源码文末联系】
java·后端·python·mysql·微信小程序·小程序·django
老马聊技术25 分钟前
Spark完全分布式集群环境搭建详细教程
大数据·spark
灯下夜无眠43 分钟前
Spark Executor 与 Driver 在三种模式下的区别
大数据·分布式·spark
宋情写1 小时前
Java基础篇01-环境搭建+入门体验
java·开发语言
悟能不能悟1 小时前
java list=null,可以stream吗
java·windows·list
cike_y1 小时前
Mybatis-万能的Map&模糊查询
java·开发语言·mybatis·安全开发