Mac安装Spark

下载并安装 Spark

Step 1: Spark需要Java运行环境,需要先安装JDK

Step 2: 下载 Spark

•	打开浏览器,访问 Apache Spark 官方网站。
•	选择以下选项:
•	Spark 版本:选择最新稳定版本 (例如 3.5.0)。
•	Hadoop 版本:选择 Pre-built for Apache Hadoop (已有 Hadoop 构建版本)。
•	点击 Download Spark 下载压缩包。

Step 3: 解压 Spark 压缩包

•	打开终端,进入下载目录并解压 Spark 压缩文件:
shell 复制代码
cd ~/Downloads
tar -xvf spark-<version>-bin-hadoop<version>.tgz

将解压后的目录移动到一个合适的位置,比如 /usr/local/spark:

shell 复制代码
sudo mv spark-<version>-bin-hadoop<version> /usr/local/spark

Step 4: 配置环境变量

•	编辑你的 .bash_profile 或 .zshrc 文件(取决于你使用的是 Bash 还是 Zsh)来添加 Spark 环境变量。

打开终端,输入:

shell 复制代码
nano ~/.zshrc  # 或者 ~/.bash_profile

添加以下内容:

shell 复制代码
export SPARK_HOME=/usr/local/spark
export PATH=$SPARK_HOME/bin:$PATH
•	保存文件并重新加载配置:
shell 复制代码
source ~/.zshrc  # 或者 ~/.bash_profile

运行 Spark 和 PySpark

Step 1: 启动 Spark Shell

•	打开终端,输入以下命令以启动 Spark Shell:
shell 复制代码
spark-shell

这将启动一个 Scala 交互式的 Spark Shell。

Step 2: 启动 PySpark

•	如果你要使用 Python 进行编程,可以启动 PySpark:
shell 复制代码
pyspark

这将启动一个 Python 交互式的 Spark Shell。你可以在这里使用 Spark 的 Python API。

使用 PySpark 编写和运行脚本

Step 1: 编写 PySpark 脚本

•	你可以使用任何文本编辑器编写 PySpark 脚本。例如,新建一个 example.py 文件:
python 复制代码
from pyspark.sql import SparkSession

# 创建 Spark 会话
spark = SparkSession.builder.appName("example").getOrCreate()

# 读取 JSON 文件
df = spark.read.json("path/to/your/file.json")

# 打印 schema
df.printSchema()

# 显示前几行数据
df.show()

Step 2: 运行 PySpark 脚本

•	在终端中运行 PySpark 脚本,确保你的环境变量配置正确:
shell 复制代码
spark-submit example.py
相关推荐
Natural_yz5 小时前
大数据学习17之Spark-Core
大数据·学习·spark
Stark-C8 小时前
万物皆可Docker,在NAS上一键部署最新苹果MacOS 15系统
macos·docker·策略模式
Roc.Chang8 小时前
macos 使用 nvm 管理 node 并自定义安装目录
macos·node.js·nvm
Mephisto.java9 小时前
【大数据学习 | Spark-Core】Spark提交及运行流程
大数据·学习·spark
三劫散仙12 小时前
Mac vscode 激活列编辑模式
macos
endingCode16 小时前
45.坑王驾到第九期:Mac安装typescript后tsc命令无效的问题
javascript·macos·typescript
soulteary18 小时前
突破内存限制:Mac Mini M2 服务器化实践指南
运维·服务器·redis·macos·arm·pika
PersistJiao18 小时前
在 Spark RDD 中,sortBy 和 top 算子的各自适用场景
大数据·spark·top·sortby
lzhlizihang19 小时前
python如何使用spark操作hive
hive·python·spark
Mephisto.java19 小时前
【大数据学习 | Spark】Spark的改变分区的算子
大数据·elasticsearch·oracle·spark·kafka·memcache