一文详解pyspark常用算子与API

rdd.glom()

对rdd的数据进行嵌套,嵌套按照分区来进行

cpp 复制代码
    rdd = sc.parallelize([1, 2, 3, 4, 5, 6, 7, 8, 9], 2)
    print(rdd.glom().collect())

输出:[[1,2,3,4],[5,6,7,8,9]]

参考

相关推荐
阿里云大数据AI技术13 小时前
EMR Serverless Spark 推出 Spark 4.0,加速湖仓架构下的数据处理升级
大数据·人工智能·spark
talen_hx29615 小时前
《零基础入门Spark》学习笔记 Day 17
大数据·笔记·学习·spark
hf20001215 小时前
深入分析:Iceberg v3「删除向量(Deletion Vectors, DV)」如何缓解 CDC 场景写放大
大数据·spark·数据湖·湖仓一体·lakehouse
武子康20 小时前
大数据-274 Spark MLib-决策树剪枝完全指南:预剪枝与后剪枝原理对比
大数据·后端·spark
亚林瓜子1 天前
AWS Catalog中数据搬到Catalog中
大数据·python·spark·云计算·aws·pyspark·glue
hf2000121 天前
Apache Iceberg vs Apache Paimon :数据湖表格式深度对比与选型指南
大数据·spark·数据湖·湖仓一体·lakehouse
飞鸟恋上鱼1 天前
基于Spark的短视频推荐系统设计与实现
大数据·分布式·spark
武子康2 天前
大数据-273 Spark MLib-决策树分类算法详解:ID3、C4.5、CART 与剪枝原理
大数据·后端·spark
张家锋2 天前
Apache Iceberg vs Apache Paimon :数据湖表格式深度对比与选型指南
大数据·数据分析·spark
在秃头的路上啊2 天前
数据库下Lambda 架构(spark+flink)
架构·flink·spark