spark local模式

Spark Local 模式是一种在单台机器上运行 Spark 应用程序的模式,无需搭建分布式集群,适合开发调试、学习以及运行小规模数据处理任务。以下为你详细介绍该模式:

特点

  • 简易性:无需额外配置分布式集群,在单机上就能快速启动和运行 Spark 应用,便于开发者快速验证代码逻辑。
  • 资源受限:由于在单机上运行,其资源(如 CPU、内存)依赖于单机配置,不适合处理大规模数据。
  • 开发调试便利:在开发过程中,可方便地进行代码调试和问题排查。

运行方式

Python 示例

以下是使用 Python 和 PySpark 在 Local 模式下运行 WordCount 程序的示例:

复制代码
from pyspark.sql import SparkSession

# 创建 SparkSession
spark = SparkSession.builder \
    .appName("LocalWordCount") \
    .master("local[*]") \
    .getOrCreate()

# 读取文本文件
lines = spark.read.text("file:///path/to/your/textfile.txt").rdd.map(lambda r: r[0])

# 进行单词计数
counts = lines.flatMap(lambda x: x.split(' ')) \
              .map(lambda x: (x, 1)) \
              .reduceByKey(lambda a, b: a + b)

# 输出结果
output = counts.collect()
for (word, count) in output:
    print("%s: %i" % (word, count))

# 停止 SparkSession
spark.stop()

在上述代码中:

  • master("local[*]") 表示使用本地模式运行,[*] 代表使用所有可用的 CPU 核心。
  • file:///path/to/your/textfile.txt 是本地文件的路径。
Scala 示例

以下是使用 Scala 在 Local 模式下运行 WordCount 程序的示例:

scala

提交作业

复制代码
import org.apache.spark.sql.SparkSession

object LocalWordCount {
  def main(args: Array[String]): Unit = {
    // 创建 SparkSession
    val spark = SparkSession.builder()
      .appName("LocalWordCount")
      .master("local[*]")
      .getOrCreate()

    // 读取文本文件
    val lines = spark.read.textFile("file:///path/to/your/textfile.txt").rdd

    // 进行单词计数
    val counts = lines.flatMap(_.split(" "))
      .map(word => (word, 1))
      .reduceByKey(_ + _)

    // 输出结果
    counts.collect().foreach(println)

    // 停止 SparkSession
    spark.stop()
  }
}    
Python 代码

在终端中使用 spark-submit 提交 Python 代码:

bash

复制代码
spark-submit --master local[*] /path/to/your/wordcount.py
Scala 代码

若使用 Scala 代码,需先将代码打包成 JAR 文件,再使用 spark-submit 提交:

bash

复制代码
spark-submit --master local[*] --class com.example.LocalWordCount
相关推荐
yantaohk12 分钟前
普通人怎么利用PCDN赚钱?几个接地气的案例告诉你
大数据·网络
xiangzhihong813 分钟前
Claude Code系列教程之Claude Code并行任务
大数据·elasticsearch·搜索引擎
计算机毕业编程指导师22 分钟前
【大数据毕设推荐】Hadoop+Spark电影票房分析系统,Python+Django全栈实现 毕业设计 选题推荐 毕设选题 数据分析 机器学习 数据挖掘
大数据·hadoop·python·计算机·spark·毕业设计·电影票房
yantaohk35 分钟前
PCDN还能赚钱吗?普通人用闲置宽带赚钱的机会、收益和风险分析
大数据·人工智能·内容运营
PythonFun1 小时前
告别加班!3分钟搞定百余份荣誉证书,WPS这个组合功能太强了
大数据·wps
csgo打的菜又爱玩1 小时前
11.JobManager 启动流程总结
大数据·开发语言·qt·microsoft·flink
OneBlock Community1 小时前
重磅!SEC & CFTC 联手“定义加密”,Polkadot 被写进规则!
大数据·人工智能
CS软件开发框架2 小时前
QMS软件案例 - 成本核算报价管理系统软件截图
大数据
大大大大晴天️2 小时前
Flink技术实践-Flink重启策略选型指南
java·大数据·flink
Francek Chen2 小时前
【大数据存储与管理】实验3:熟悉常用的HBase操作
大数据·数据库·分布式·hbase