Pandas API on Spark 快速入门像写 Pandas 一样使用 Spark

1. 什么是 pandas API on Spark

pandas API on Spark 是一套面向 pandas 用户的接口。它的目标不是让你重新学习一套全新的数据处理方式,而是尽量沿用 pandas 的操作习惯,同时把底层执行交给 Spark。官方 Quickstart 主要演示了它和 pandas 的相似点,以及与 Spark DataFrame 的互转方式。

2. 基础导入

python 复制代码
import pandas as pd
import numpy as np
import pyspark.pandas as ps
from pyspark.sql import SparkSession

这是官方示例中的标准导入方式。

3. 对象创建

3.1 创建 Series

python 复制代码
s = ps.Series([1, 3, 5, np.nan, 6, 8])
print(s)

3.2 创建 DataFrame

python 复制代码
psdf = ps.DataFrame(
    {
        "a": [1, 2, 3, 4, 5, 6],
        "b": [100, 200, 300, 400, 500, 600],
        "c": ["one", "two", "three", "four", "five", "six"],
    },
    index=[10, 20, 30, 40, 50, 60],
)
print(psdf)

3.3 从 pandas DataFrame 转换

python 复制代码
dates = pd.date_range("20130101", periods=6)
pdf = pd.DataFrame(np.random.randn(6, 4), index=dates, columns=list("ABCD"))

psdf = ps.from_pandas(pdf)
print(type(psdf))
print(psdf)

3.4 从 Spark DataFrame 转换

python 复制代码
spark = SparkSession.builder.getOrCreate()

sdf = spark.createDataFrame(pdf)
sdf.show()

psdf = sdf.pandas_api()
print(psdf)

官方示例展示了 pandas DataFrame 可以转换成 pandas API on Spark DataFrame,Spark DataFrame 也可以通过 pandas_api() 转成 pandas API on Spark 对象。

4. 查看数据

4.1 查看前几行

python 复制代码
print(psdf.head())

4.2 查看索引、列名和 numpy 数据

python 复制代码
print(psdf.index)
print(psdf.columns)
print(psdf.to_numpy())

4.3 查看数据摘要

python 复制代码
print(psdf.describe())

4.4 转置、按索引排序、按值排序

python 复制代码
print(psdf.T)

print(psdf.sort_index(ascending=False))

print(psdf.sort_values(by="B"))

需要注意的是,Spark DataFrame 默认不保证天然顺序;如果通过相关配置保留顺序,会带来额外排序开销。

5. 缺失值处理

pandas API on Spark 主要使用 np.nan 表示缺失值,默认情况下它不会被纳入计算。

python 复制代码
pdf1 = pdf.reindex(index=dates[0:4], columns=list(pdf.columns) + ["E"])
pdf1.loc[dates[0]:dates[1], "E"] = 1

psdf1 = ps.from_pandas(pdf1)
print(psdf1)

5.1 删除缺失值

python 复制代码
print(psdf1.dropna(how="any"))

5.2 填充缺失值

python 复制代码
print(psdf1.fillna(value=5))

6. 基础统计操作

python 复制代码
print(psdf.mean())

官方示例中,mean()describe() 等操作都可以直接使用,整体风格与 pandas 很接近。

7. Arrow 优化

pandas API on Spark 可以使用 Spark 配置进行优化。官方示例里开启 Arrow 后,ps.range(300000).to_pandas() 的耗时大约从 3.08 秒下降到 900 毫秒,说明 Arrow 对 pandas 转换性能有明显提升。

python 复制代码
prev = spark.conf.get("spark.sql.execution.arrow.pyspark.enabled")
ps.set_option("compute.default_index_type", "distributed")

import warnings
warnings.filterwarnings("ignore")

spark.conf.set("spark.sql.execution.arrow.pyspark.enabled", True)
# %timeit ps.range(300000).to_pandas()

spark.conf.set("spark.sql.execution.arrow.pyspark.enabled", False)
# %timeit ps.range(300000).to_pandas()

ps.reset_option("compute.default_index_type")
spark.conf.set("spark.sql.execution.arrow.pyspark.enabled", prev)

8. 分组聚合

python 复制代码
psdf = ps.DataFrame(
    {
        "A": ["foo", "bar", "foo", "bar", "foo", "bar", "foo", "foo"],
        "B": ["one", "one", "two", "three", "two", "two", "one", "three"],
        "C": np.random.randn(8),
        "D": np.random.randn(8),
    }
)

print(psdf.groupby("A").sum())
print(psdf.groupby(["A", "B"]).sum())

官方示例中,groupby 支持单列分组和多列分组;多列分组后会形成层级索引。

9. 绘图

python 复制代码
pser = pd.Series(np.random.randn(1000), index=pd.date_range("1/1/2000", periods=1000))
psser = ps.Series(pser)
psser = psser.cummax()
psser.plot()
python 复制代码
pdf = pd.DataFrame(np.random.randn(1000, 4), index=pser.index, columns=["A", "B", "C", "D"])
psdf = ps.from_pandas(pdf)
psdf = psdf.cummax()
psdf.plot()

官方示例展示了 Series 和 DataFrame 都可以直接调用 plot() 进行绘图。

10. 数据读写

10.1 CSV

python 复制代码
psdf.to_csv("foo.csv")
print(ps.read_csv("foo.csv").head(10))

10.2 Parquet

python 复制代码
psdf.to_parquet("bar.parquet")
print(ps.read_parquet("bar.parquet").head(10))

10.3 Spark IO

python 复制代码
psdf.spark.to_spark_io("zoo.orc", format="orc")
print(ps.read_spark_io("zoo.orc", format="orc").head(10))

官方 Quickstart 展示了 pandas API on Spark 支持 CSV、Parquet,以及通过 Spark IO 写入 ORC 等 Spark 数据源。

11. 总结

pandas API on Spark 最适合这样一类场景:你已经熟悉 pandas,希望继续用接近 pandas 的写法处理数据,但数据规模开始变大,或者希望接入 Spark 的分布式能力。这套接口的价值不在于"发明一种新语法",而在于让 pandas 风格代码更自然地过渡到 Spark 世界。它支持对象创建、DataFrame 互转、常见查看操作、缺失值处理、统计分析、Arrow 优化、分组聚合、绘图和多种数据读写方式,足够作为入门和迁移的起点。

相关推荐
K3v27 分钟前
【git】删除本地以及远端已经合并到master的分支
大数据·git·elasticsearch
53AI1 小时前
智能调度赋能交通行业:从经验驱动到数据智能的跨越
大数据·人工智能·知识库·智能调度·53ai
黎阳之光2 小时前
黎阳之光核工厂202应急管控平台|全域实景孪生,筑牢核安全最后一道防线
大数据·人工智能·算法·安全·数字孪生
roman_日积跬步-终至千里2 小时前
【系统架构设计师-综合题-知识点(1)】系统工程与信息技术基础
大数据
Elastic 中国社区官方博客3 小时前
Elasticsearch:快速近似 ES|QL - 第二部分
大数据·数据库·sql·elasticsearch·搜索引擎·全文检索
Cisyam^3 小时前
Bright Data Web Scraping 指南:用 MCP + Dify 自动采集 TikTok 与 LinkedIn数据
大数据·前端·人工智能
captain_AIouo3 小时前
Captain AI功能全景解析——从选品到物流的智能闭环
大数据·人工智能·经验分享·aigc
xunmaiai 8884 小时前
揭秘OZON高性价比选品:如何甄别真正靠谱的合作公司?
大数据·人工智能·python
xlq223224 小时前
43.线程同步
大数据·linux
只说证事4 小时前
CDA数据分析师适合在校生吗?什么时候准备更划算
大数据