一文详解pyspark常用算子与API

rdd.glom()

对rdd的数据进行嵌套,嵌套按照分区来进行

cpp 复制代码
    rdd = sc.parallelize([1, 2, 3, 4, 5, 6, 7, 8, 9], 2)
    print(rdd.glom().collect())

输出:[[1,2,3,4],[5,6,7,8,9]]

参考

相关推荐
beijingliushao8 小时前
100-Spark Local模式部署
大数据·python·ajax·spark
字节跳动开源10 小时前
首届 Apache Gluten 社区年度盛会 —— GlutenCon 2025 正式启动!
大数据·spark·线下活动
larance12 小时前
spark 支持hive
hive·spark
beijingliushao14 小时前
99-在Linux上安装Anaconda
linux·运维·服务器·spark
Appreciate(欣赏)14 小时前
Spark解析JSON字符串
大数据·spark·json
毕设源码-赖学姐14 小时前
【开题答辩全过程】以 基于Spark的全球地震信息数据可视化分析平台研究为例,包含答辩的问题和答案
大数据·信息可视化·spark
B站计算机毕业设计之家2 天前
机器学习:python智能电商推荐平台 大数据 spark(Django后端+Vue3前端+协同过滤 毕业设计/实战 源码)✅
大数据·python·spark·django·推荐算法·电商
mn_kw2 天前
Spark Shuffle 深度解析与参数详解
大数据·分布式·spark
红队it2 天前
【Spark+Hive】基于Spark大数据旅游景点数据分析可视化推荐系统(完整系统源码+数据库+开发笔记+详细部署教程+虚拟机分布式启动教程)✅
大数据·python·算法·数据分析·spark·django·echarts
mn_kw2 天前
Hive On Spark 统计信息收集深度解析
hive·hadoop·spark