Spark Dataset 快速上手

文章首发地址

Spark Dataset是Spark提供的一种强类型的数据抽象,它结合了RDD的强大功能和DataFrame的优化执行。下面是Spark Dataset的Java API的详细解释:

  1. 创建Dataset:

    使用spark.createDataset()方法:通过调用spark对象的createDataset()方法,可以将Java集合或数组转换为Dataset。示例代码如下:

    java 复制代码
    List<Integer> data = Arrays.asList(1, 2, 3, 4, 5);

    Dataset dataset = spark.createDataset(data, Encoders.INT());

    使用spark.read().dataset()方法:在读取外部数据源时,可以使用spark.read().dataset()方法创建Dataset。示例代码如下:

    java 复制代码
    Dataset<Row> dataset = spark.read().dataset("path/to/data.csv");
  2. 转换和操作Dataset:

    filter()方法:使用filter()方法可以根据指定的条件过滤数据集。示例代码如下:

    java 复制代码
    Dataset<Integer> filteredDataset = dataset.filter(value -> value > 3);

    map()方法:使用map()方法可以对数据集中的每个元素进行映射操作,并返回一个新的Dataset。示例代码如下:

    java 复制代码
    Dataset<String> mappedDataset = dataset.map(value -> String.valueOf(value));

    groupBy()和agg()方法:使用groupBy()方法对数据集进行分组,然后使用agg()方法进行聚合操作。示例代码如下:

    java 复制代码
    Dataset<Row> groupedDataset = dataset.groupBy("category").agg(sum("amount"), avg("price"));
  3. 操作Dataset的列:

    select()方法:使用select()方法可以选择要包含在结果中的列。示例代码如下:

    java 复制代码
    Dataset<Row> selectedDataset = dataset.select("col1", "col2");

    withColumn()方法:使用withColumn()方法可以添加新的列或替换现有列。示例代码如下:

    java 复制代码
    Dataset<Row> modifiedDataset = dataset.withColumn("newColumn", col("oldColumn").plus(1));
  4. 聚合操作和窗口函数:

    groupBy()和聚合函数:可以使用groupBy()方法对数据集进行分组,然后使用聚合函数(如sum()、avg()等)进行聚合操作。示例代码如下:

    java 复制代码
    Dataset<Row> aggregatedDataset = dataset.groupBy("category").agg(sum("amount"), avg("price"));

    窗口函数:使用窗口函数可以在数据集上定义窗口,并在窗口内进行聚合操作。示例代码如下:

    java 复制代码
    WindowSpec windowSpec = Window.partitionBy("category").orderBy("amount");
    Dataset<Row> windowedDataset = dataset.withColumn("rank", rank().over(windowSpec));

    这些是Spark Dataset Java API中的一些常用方法和操作。通过这些API,您可以创建、转换和操作强类型的Dataset,并进行各种聚合和分析操作,以满足您的数据处理需求。

相关推荐
PersistJiao34 分钟前
在 Spark RDD 中,sortBy 和 top 算子的各自适用场景
大数据·spark·top·sortby
2301_811274311 小时前
大数据基于Spring Boot的化妆品推荐系统的设计与实现
大数据·spring boot·后端
Yz98761 小时前
hive的存储格式
大数据·数据库·数据仓库·hive·hadoop·数据库开发
青云交1 小时前
大数据新视界 -- 大数据大厂之 Hive 数据导入:多源数据集成的策略与实战(上)(3/ 30)
大数据·数据清洗·电商数据·数据整合·hive 数据导入·多源数据·影视娱乐数据
lzhlizihang1 小时前
python如何使用spark操作hive
hive·python·spark
武子康1 小时前
大数据-230 离线数仓 - ODS层的构建 Hive处理 UDF 与 SerDe 处理 与 当前总结
java·大数据·数据仓库·hive·hadoop·sql·hdfs
武子康1 小时前
大数据-231 离线数仓 - DWS 层、ADS 层的创建 Hive 执行脚本
java·大数据·数据仓库·hive·hadoop·mysql
时差9531 小时前
Flink Standalone集群模式安装部署
大数据·分布式·flink·部署
锵锵锵锵~蒋1 小时前
实时数据开发 | 怎么通俗理解Flink容错机制,提到的checkpoint、barrier、Savepoint、sink都是什么
大数据·数据仓库·flink·实时数据开发
二进制_博客1 小时前
Flink学习连载文章4-flink中的各种转换操作
大数据·学习·flink