pyspark 执行group by操作 - 原始数据非hive

前情提要

pyspark执行group by操作中,数据源是hive,而有时候我们的数据源可能是集群上的某个文件,这时候可以pyspark中使用DataFrame API来根据自动字段执行group by操作,这里还是以sum为例。

基础步骤

  1. 创建SparkSession:首先创建一个SparkSession,这是使用PySpark的入口。
  2. 示例数据:定义一些示例数据,并创建一个DataFrame。
  3. 自动字段列表:定义一个包含需要执行sum操作的字段的列表。
  4. 执行sum操作:使用DataFrame的select方法和sum函数对指定字段执行sum操作。通过列表推导式生成sum表达式列表,并使用alias方法为每个sum结果指定别名。
  5. 显示结果:使用show方法显示结果DataFrame。
  6. 停止SparkSession:最后停止SparkSession

代码示例

python 复制代码
from pyspark.sql import SparkSession
from pyspark.sql.functions import col, sum
# 创建SparkSession
spark = SparkSession.builder \
    .appName("SumOperationExample") \
    .getOrCreate()
# 示例数据
data = [
    ("Alice", 10, 20, 30),
    ("Bob", 40, 50, 60),
    ("Cathy", 70, 80, 90)
]
# 创建DataFrame
columns = ["Name", "Field1", "Field2", "Field3"]
df = spark.createDataFrame(data, columns)
# 自动字段列表
fields_to_sum = ["Field1", "Field2", "Field3"]
# 执行sum操作
sum_exprs = [sum(col(field)).alias(f"sum_{field}") for field in fields_to_sum]
result_df = df.select(sum_exprs)
# 显示结果
result_df.show()
# 停止SparkSession
spark.stop()
相关推荐
RestCloud9 小时前
ETL与数据湖Hudi的集成与操作
数据仓库·etl·hudi·数据同步·数据集成平台
苛子9 小时前
实时数据同步工具横评:ETLCloud vs 帆软FDL,谁更适合企业数据平台?
数据仓库·etl
德昂信息dataondemand9 小时前
ETL:解锁数据价值的 “黄金转换器
数据仓库·etl
ApacheSeaTunnel11 小时前
(三)ODS/明细层落地设计要点:把数据接入层打造成“稳定可运维”的基础设施
数据库·数据仓库·数据湖·白鲸开源
网络工程小王13 小时前
【大数据技术详解】——HDFS技术(学习笔记)
hadoop·hdfs·big data
SelectDB技术团队16 小时前
易车 × Apache Doris:构建湖仓一体新架构,加速 AI 业务融合实践
数据仓库·人工智能·数据分析·agent·apache doris·mcp·易车
王的宝库19 小时前
MapReduce / Hive / Pig :从底层批处理到 SQL/脚本落地
hive·hadoop·sql·mapreduce
升职佳兴20 小时前
告别 nohup:Hive Metastore 交给 systemd 托管的完整步骤
数据仓库·hive·hadoop
IT从业者张某某20 小时前
Docker部署Hadoop-01-Docker安装
hadoop·docker·eureka
小哥哥咯20 小时前
数据仓库维度建模思维导图—— 基于《The Data Warehouse Toolkit, 3rd Edition》(第三版修订版)
大数据·数据仓库