PySpark 小白教程 (二) PySpark SQL 简介

PySpark SQL 简介

PySpark 是 Apache Spark 的 Python API,允许通过 Python 脚本进行大数据处理和分析。PySpark SQL 是 PySpark 的一个模块,用于处理结构化数据。它提供了与 SQL 语法相似的 DataFrame API,使数据工程师和数据科学家能够轻松地执行各种数据操作。

入门指南

要开始使用 PySpark SQL,您需要先安装 PySpark。可以通过以下命令安装:

bash 复制代码
pip install pyspark

安装完成后,可以创建一个 SparkSession,这是所有 Spark 功能的入口点:

python 复制代码
from pyspark.sql import SparkSession

# 创建 SparkSession
spark = SparkSession.builder \
    .appName("PySpark SQL 基本操作") \
    .getOrCreate()
核心类

以下是 PySpark SQL 中的一些核心类:

  • SparkSession: 提供了与 Spark 交互的入口点。
  • DataFrame: 是分布式数据集,类似于关系数据库中的表。
  • Column: 代表 DataFrame 中的列,用于表达数据操作。
  • Row: 代表 DataFrame 中的行。
  • GroupData: 表示分组后的数据,允许对分组数据进行聚合操作。
基本操作
  1. 创建 DataFrame :

    可以从各种数据源(如 CSV、JSON、数据库等)创建 DataFrame:

    python 复制代码
    df = spark.read.csv("data.csv", header=True, inferSchema=True)
    df.show()
  2. 选择列 :

    使用 select 方法选择所需的列:

    python 复制代码
    df.select("name", "age").show()
  3. 过滤数据 :

    使用 filter 方法进行数据过滤:

    python 复制代码
    df.filter(df["age"] > 30).show()
  4. 分组聚合 :

    使用 groupByagg 方法进行数据分组和聚合:

    python 复制代码
    df.groupBy("department").agg({"salary": "avg"}).show()
  5. SQL 查询 :

    可以直接在 DataFrame 上执行 SQL 查询:

    python 复制代码
    df.createOrReplaceTempView("employees")
    spark.sql("SELECT * FROM employees WHERE age > 30").show()
SparkSession 常用方法
  • read: 读取数据源,生成 DataFrame。
  • readStream: 读取流数据源,生成流 DataFrame。
  • sql: 执行 SQL 查询。
  • createDataFrame: 从 RDD、列表等创建 DataFrame。
  • table: 访问临时或持久表。
DataFrame 常用方法
  • show: 显示 DataFrame 的内容。
  • select: 选择特定的列。
  • filter: 过滤行。
  • groupBy: 分组数据。
  • agg: 聚合操作。
  • join: 连接两个 DataFrame。

通过这些功能,PySpark SQL 提供了强大的工具来处理和分析大规模数据,使数据处理变得更加高效和灵活。

相关推荐
zzb15802 小时前
RAG from Scratch-优化-query
java·数据库·人工智能·后端·spring·mybatis
一只鹿鹿鹿2 小时前
信息安全等级保护安全建设防护解决方案(总体资料)
运维·开发语言·数据库·面试·职场和发展
堕2742 小时前
MySQL数据库《基础篇--数据库索引(2)》
数据库·mysql
wei_shuo2 小时前
数据库优化器进化论:金仓如何用智能下推把查询时间从秒级打到毫秒级
数据库·kingbase·金仓
雷工笔记3 小时前
Navicat Premium 17 软件安装记录
数据库
wenlonglanying3 小时前
Ubuntu 系统下安装 Nginx
数据库·nginx·ubuntu
数据库小组3 小时前
10 分钟搞定!Docker 一键部署 NineData 社区版
数据库·docker·容器·database·数据库管理工具·ninedata·迁移工具
爬山算法3 小时前
MongoDB(38)如何使用聚合进行投影?
数据库·mongodb
l1t3 小时前
Deep Seek总结的APSW 和 SQLite 的关系
数据库·sqlite
Pocker_Spades_A4 小时前
基于代价模型的连接条件下推:复杂SQL查询的性能优化实践
数据库·sql·性能优化