Mac安装Spark

下载并安装 Spark

Step 1: Spark需要Java运行环境,需要先安装JDK

Step 2: 下载 Spark

复制代码
•	打开浏览器,访问 Apache Spark 官方网站。
•	选择以下选项:
•	Spark 版本:选择最新稳定版本 (例如 3.5.0)。
•	Hadoop 版本:选择 Pre-built for Apache Hadoop (已有 Hadoop 构建版本)。
•	点击 Download Spark 下载压缩包。

Step 3: 解压 Spark 压缩包

复制代码
•	打开终端,进入下载目录并解压 Spark 压缩文件:
shell 复制代码
cd ~/Downloads
tar -xvf spark-<version>-bin-hadoop<version>.tgz

将解压后的目录移动到一个合适的位置,比如 /usr/local/spark:

shell 复制代码
sudo mv spark-<version>-bin-hadoop<version> /usr/local/spark

Step 4: 配置环境变量

复制代码
•	编辑你的 .bash_profile 或 .zshrc 文件(取决于你使用的是 Bash 还是 Zsh)来添加 Spark 环境变量。

打开终端,输入:

shell 复制代码
nano ~/.zshrc  # 或者 ~/.bash_profile

添加以下内容:

shell 复制代码
export SPARK_HOME=/usr/local/spark
export PATH=$SPARK_HOME/bin:$PATH
复制代码
•	保存文件并重新加载配置:
shell 复制代码
source ~/.zshrc  # 或者 ~/.bash_profile

运行 Spark 和 PySpark

Step 1: 启动 Spark Shell

复制代码
•	打开终端,输入以下命令以启动 Spark Shell:
shell 复制代码
spark-shell

这将启动一个 Scala 交互式的 Spark Shell。

Step 2: 启动 PySpark

复制代码
•	如果你要使用 Python 进行编程,可以启动 PySpark:
shell 复制代码
pyspark

这将启动一个 Python 交互式的 Spark Shell。你可以在这里使用 Spark 的 Python API。

使用 PySpark 编写和运行脚本

Step 1: 编写 PySpark 脚本

复制代码
•	你可以使用任何文本编辑器编写 PySpark 脚本。例如,新建一个 example.py 文件:
python 复制代码
from pyspark.sql import SparkSession

# 创建 Spark 会话
spark = SparkSession.builder.appName("example").getOrCreate()

# 读取 JSON 文件
df = spark.read.json("path/to/your/file.json")

# 打印 schema
df.printSchema()

# 显示前几行数据
df.show()

Step 2: 运行 PySpark 脚本

复制代码
•	在终端中运行 PySpark 脚本,确保你的环境变量配置正确:
shell 复制代码
spark-submit example.py
相关推荐
瞎胡侃6 小时前
Spark读取Apollo配置
大数据·spark·apollo
悻运7 小时前
如何配置Spark
大数据·分布式·spark
懒惰的橘猫7 小时前
Spark集群搭建之Yarn模式
大数据·分布式·spark
2401_824256867 小时前
Spark-Streaming
大数据·分布式·spark
元6338 小时前
spark和hadoop之间的对比和联系
大数据·hadoop·spark
沐风¥9 小时前
Kafka和Spark-Streaming
spark
哥不是小萝莉9 小时前
Hadoop和Spark大数据挖掘与实战
hadoop·ai·spark
lix的小鱼11 小时前
spark和Hadoop之间的对比和联系
大数据·hadoop·spark
什么芮.14 小时前
spark-streaming
pytorch·sql·spark·kafka·scala
Dachui_112215 小时前
MacOS上如何运行内网穿透详细教程
macos