spark的rdd介绍和应用

1.rdd介绍

  • RDD是spark的一种数据模型(规定数据的存储结构和计算方法)

  • RDD是将数据分布式存储在不同服务器的内存上,通过RDD共享不同服务器的内存数据

  • 所以Spark是基于内存进行分布式数据计算的框架

1.1 rdd特点

  • 分区

    • 可以将计算的海量数据分成多份,需要分成多少可分区可以通过方法指定

    • 每个分区都可以对应一个task线程执行计算

  • 只读

    • rdd中的数据不能直接修改,需要通过方法计算后得到一个新的rdd

    • rdd本身存储的数只能读取

  • 依赖

    • rdd之间是有依赖关系的

    • 新的rdd是通过旧的rdd计算得到

  • 缓存

    • 可以将计算的中结果缓存起来,如果后续计算错误时,可以从缓存位置重新计算

    • 将数据存储在内存或本地磁盘

    • 作用是容错

    • 缓存在执行计算任务程序结束后会释放删除

  • checkpoint

    • 作用和缓存一样

    • checkpoint可以将数据存储在分布式存储系统中,比如hdfs

2.rdd的应用

2.1创建rdd

复制代码
# 导入sparkcontext
from pyspark import SparkContext
# 创建SparkContext对象
sc = SparkContext()
# 将Python数据转为rdd
data_list = [1, 2, 3, 4]
rdd = sc.parallelize(data_list)
# rdd的数据输出展示
# 获取所有rdd数据
res = rdd.collect()
print(res)

2.2hdfs数据转为rdd

复制代码
# 将读取的hdfs文件数据转为rdd
from pyspark import SparkContext

# 生成SparkContext类对象
sc = SparkContext()
# 读取文件数据转为rdd
rdd  = sc.textFile('hdfs://node1:8020/data')#数据文件在hdfs的存储路径
# 查看数据
res = rdd.collect()
print(res)

2.3rdd的分区

复制代码
# 导入sparkcontext
from pyspark import SparkContext

# 创建SparkContext对象
sc = SparkContext()

# 创建生成rdd是可以指定分区数
# Python数据转为rdd指定
# numSlices 可以指定分区数
rdd_py = sc.parallelize([1,2,3,4,5,6],numSlices=3)
# 查看rdd分区数据
res  = rdd_py.glom().collect()
print(res)

2.4小文件数据读取

复制代码
# 导入sparkcontext
from pyspark import SparkContext

# 创建SparkContext对象
sc = SparkContext(master='yarn')
# rdd = sc.textFile('hdfs://node1:8020/data')
# rdd计算
# wholeTextFiles 会合并小文件数据
# minPartitions 指定分区数
rdd_mini = sc.wholeTextFiles('hdfs://node1:8020/data',minPartitions=1)

# 展示数据
# res1 = rdd.glom().collect()
# print(res1)

res2 = rdd_mini.glom().collect()
print(res2)
相关推荐
文火冰糖的硅基工坊1 小时前
《投资-99》价值投资者的认知升级与交易规则重构 - 什么是周期性股票?有哪些周期性股票?不同周期性股票的周期多少?周期性股票的买入和卖出的特点?
大数据·人工智能·重构·架构·投资·投机
Elastic 中国社区官方博客1 小时前
Elasticsearch:使用推理端点及语义搜索演示
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索
失散132 小时前
分布式专题——33 一台新机器进行Web页面请求的历程
分布式·tcp/ip·http·路由器·交换机
数据智能老司机2 小时前
数据工程设计模式——冷热数据存储
大数据·设计模式·架构
Hello.Reader5 小时前
Flink 连接器与格式thin/uber 制品、打包策略与上线清单
大数据·flink
隐语SecretFlow5 小时前
【隐私计算科普】如何实现可证明安全?
大数据·开源·边缘计算
稚辉君.MCA_P8_Java6 小时前
kafka解决了什么问题?mmap 和sendfile
java·spring boot·分布式·kafka·kubernetes
lisw056 小时前
AIoT(人工智能物联网):融合范式下的技术演进、系统架构与产业变革
大数据·人工智能·物联网·机器学习·软件工程
mtouch3336 小时前
GIS+VR地理信息虚拟现实XR MR AR
大数据·人工智能·ar·无人机·xr·vr·mr
数据智能老司机7 小时前
数据工程设计模式——实时摄取与处理
大数据·设计模式·架构