Pandas API on Spark 快速入门像写 Pandas 一样使用 Spark

1. 什么是 pandas API on Spark

pandas API on Spark 是一套面向 pandas 用户的接口。它的目标不是让你重新学习一套全新的数据处理方式,而是尽量沿用 pandas 的操作习惯,同时把底层执行交给 Spark。官方 Quickstart 主要演示了它和 pandas 的相似点,以及与 Spark DataFrame 的互转方式。

2. 基础导入

python 复制代码
import pandas as pd
import numpy as np
import pyspark.pandas as ps
from pyspark.sql import SparkSession

这是官方示例中的标准导入方式。

3. 对象创建

3.1 创建 Series

python 复制代码
s = ps.Series([1, 3, 5, np.nan, 6, 8])
print(s)

3.2 创建 DataFrame

python 复制代码
psdf = ps.DataFrame(
    {
        "a": [1, 2, 3, 4, 5, 6],
        "b": [100, 200, 300, 400, 500, 600],
        "c": ["one", "two", "three", "four", "five", "six"],
    },
    index=[10, 20, 30, 40, 50, 60],
)
print(psdf)

3.3 从 pandas DataFrame 转换

python 复制代码
dates = pd.date_range("20130101", periods=6)
pdf = pd.DataFrame(np.random.randn(6, 4), index=dates, columns=list("ABCD"))

psdf = ps.from_pandas(pdf)
print(type(psdf))
print(psdf)

3.4 从 Spark DataFrame 转换

python 复制代码
spark = SparkSession.builder.getOrCreate()

sdf = spark.createDataFrame(pdf)
sdf.show()

psdf = sdf.pandas_api()
print(psdf)

官方示例展示了 pandas DataFrame 可以转换成 pandas API on Spark DataFrame,Spark DataFrame 也可以通过 pandas_api() 转成 pandas API on Spark 对象。

4. 查看数据

4.1 查看前几行

python 复制代码
print(psdf.head())

4.2 查看索引、列名和 numpy 数据

python 复制代码
print(psdf.index)
print(psdf.columns)
print(psdf.to_numpy())

4.3 查看数据摘要

python 复制代码
print(psdf.describe())

4.4 转置、按索引排序、按值排序

python 复制代码
print(psdf.T)

print(psdf.sort_index(ascending=False))

print(psdf.sort_values(by="B"))

需要注意的是,Spark DataFrame 默认不保证天然顺序;如果通过相关配置保留顺序,会带来额外排序开销。

5. 缺失值处理

pandas API on Spark 主要使用 np.nan 表示缺失值,默认情况下它不会被纳入计算。

python 复制代码
pdf1 = pdf.reindex(index=dates[0:4], columns=list(pdf.columns) + ["E"])
pdf1.loc[dates[0]:dates[1], "E"] = 1

psdf1 = ps.from_pandas(pdf1)
print(psdf1)

5.1 删除缺失值

python 复制代码
print(psdf1.dropna(how="any"))

5.2 填充缺失值

python 复制代码
print(psdf1.fillna(value=5))

6. 基础统计操作

python 复制代码
print(psdf.mean())

官方示例中,mean()describe() 等操作都可以直接使用,整体风格与 pandas 很接近。

7. Arrow 优化

pandas API on Spark 可以使用 Spark 配置进行优化。官方示例里开启 Arrow 后,ps.range(300000).to_pandas() 的耗时大约从 3.08 秒下降到 900 毫秒,说明 Arrow 对 pandas 转换性能有明显提升。

python 复制代码
prev = spark.conf.get("spark.sql.execution.arrow.pyspark.enabled")
ps.set_option("compute.default_index_type", "distributed")

import warnings
warnings.filterwarnings("ignore")

spark.conf.set("spark.sql.execution.arrow.pyspark.enabled", True)
# %timeit ps.range(300000).to_pandas()

spark.conf.set("spark.sql.execution.arrow.pyspark.enabled", False)
# %timeit ps.range(300000).to_pandas()

ps.reset_option("compute.default_index_type")
spark.conf.set("spark.sql.execution.arrow.pyspark.enabled", prev)

8. 分组聚合

python 复制代码
psdf = ps.DataFrame(
    {
        "A": ["foo", "bar", "foo", "bar", "foo", "bar", "foo", "foo"],
        "B": ["one", "one", "two", "three", "two", "two", "one", "three"],
        "C": np.random.randn(8),
        "D": np.random.randn(8),
    }
)

print(psdf.groupby("A").sum())
print(psdf.groupby(["A", "B"]).sum())

官方示例中,groupby 支持单列分组和多列分组;多列分组后会形成层级索引。

9. 绘图

python 复制代码
pser = pd.Series(np.random.randn(1000), index=pd.date_range("1/1/2000", periods=1000))
psser = ps.Series(pser)
psser = psser.cummax()
psser.plot()
python 复制代码
pdf = pd.DataFrame(np.random.randn(1000, 4), index=pser.index, columns=["A", "B", "C", "D"])
psdf = ps.from_pandas(pdf)
psdf = psdf.cummax()
psdf.plot()

官方示例展示了 Series 和 DataFrame 都可以直接调用 plot() 进行绘图。

10. 数据读写

10.1 CSV

python 复制代码
psdf.to_csv("foo.csv")
print(ps.read_csv("foo.csv").head(10))

10.2 Parquet

python 复制代码
psdf.to_parquet("bar.parquet")
print(ps.read_parquet("bar.parquet").head(10))

10.3 Spark IO

python 复制代码
psdf.spark.to_spark_io("zoo.orc", format="orc")
print(ps.read_spark_io("zoo.orc", format="orc").head(10))

官方 Quickstart 展示了 pandas API on Spark 支持 CSV、Parquet,以及通过 Spark IO 写入 ORC 等 Spark 数据源。

11. 总结

pandas API on Spark 最适合这样一类场景:你已经熟悉 pandas,希望继续用接近 pandas 的写法处理数据,但数据规模开始变大,或者希望接入 Spark 的分布式能力。这套接口的价值不在于"发明一种新语法",而在于让 pandas 风格代码更自然地过渡到 Spark 世界。它支持对象创建、DataFrame 互转、常见查看操作、缺失值处理、统计分析、Arrow 优化、分组聚合、绘图和多种数据读写方式,足够作为入门和迁移的起点。

相关推荐
江瀚视野2 小时前
美丽田园经调净利大增41%,全方位增长未来何在?
大数据·人工智能
山峰哥2 小时前
索引设计失误让系统性能下降90%
大数据·服务器·数据库·oracle·性能优化
第二只羽毛2 小时前
C++ 高并发内存池2
大数据·开发语言·jvm·c++·c#
matlabgoodboy3 小时前
Python代做java代码编写C++大数据R语言Hadoop/spark/flink/C语言
java·大数据·python
阳艳讲ai3 小时前
企业AI培训评测:线下课vs线上营vs陪跑服务,谁能让员工真学会AI?附ROI选型指南
大数据·人工智能·数据挖掘
蓝策电子3 小时前
蓝牙AoA技术如何实现智慧机场人员与资产管控
大数据·经验分享·物联网·信息可视化·智慧城市
Th13360703 小时前
B端拓客号码核验行业现状:困局破解与价值重构,氪迹科技法人股东号码核验筛选系统,阶梯式价格
大数据·重构
Elastic 中国社区官方博客4 小时前
使用 TypeScript 创建 Elasticsearch MCP 服务器
大数据·服务器·数据库·人工智能·elasticsearch·搜索引擎·全文检索
Meya11274 小时前
告别机房 U 位管理内耗!这套系统让运维效率直接拉满 ✨
大数据·运维·人工智能