spark

阶段性:

一、单机时代

特点:

1.硬件资源有限:单机系统的计算能力、存储容量和内存空间都受限于单台计算机的硬件配置。例如早期的个人电脑,通常只有几百兆的内存和几 GB 的硬盘空间。

2.数据处理能力有限:主要处理本地产生的小规模数据,数据量一般在 MB 级别到 GB 级别之间。如单机版的财务软件,只处理一个小型企业内部的少量财务数据。

3.应用场景简单:主要用于个人办公、简单的游戏娱乐或小型企业的基本业务处理,如文字处理、单机游戏、简单的库存管理等。

局限性:

1.无法处理大规模数据:随着业务的发展和数据量的增长,单机系统很快就会遇到存储和处理能力的瓶颈,无法应对海量数据的存储和分析需求。

2.可靠性和可用性较低:一旦单机出现故障,整个系统就会瘫痪,导致业务中断,数据也可能丢失,没有冗余机制来保证数据的安全和业务的连续性。

3.扩展性差:难以通过简单的方式增加计算和存储资源来满足不断增长的业务需求,升级硬件往往受到兼容性等多种因素的限制。

二、大数据时代-分布式处理

定义:是将一个大型的计算任务或数据处理任务分解成多个子任务,然后分配到多个计算节点(如多台服务器)上进行并行处理,最后将各个子任务的处理结果汇总得到最终结果的过程。

特点:提高处理能力:通过将任务分散到多个节点上并行计算,能够大大提高数据处理的速度和效率,从而可以在短时间内处理海量数据,满足大数据时代对数据处理的实时性和高效性要求。

三、实时大数据时代

hadoop慢因为它的计算结果保存在磁盘将其处理在spark中可解决计算慢的问题因为spark将计算结果保存在内存中

hadoop特点:1.高可靠性 2.高拓展性 3.高效性 4.高容错性

相关推荐
Java资深爱好者4 小时前
在Spark中,如何使用DataFrame进行高效的数据处理
大数据·分布式·spark
阿里云大数据AI技术7 小时前
美的楼宇科技基于阿里云 EMR Serverless Spark 构建 LakeHouse 湖仓数据平台
大数据·阿里云·spark·serverless·emr
python资深爱好者10 小时前
什么容错性以及Spark Streaming如何保证容错性
大数据·分布式·spark
weixin_307779131 天前
PySpark实现MERGE INTO的数据合并功能
大数据·python·spark
lucky_syq2 天前
Spark算子:大数据处理的魔法棒
大数据·分布式·spark
D愿你归来仍是少年2 天前
解决Python升级导致PySpark任务异常方案
大数据·开发语言·python·spark
weixin_307779132 天前
PySpark检查两个DataFrame的数据是否一致
大数据·spark·pandas
人类群星闪耀时2 天前
数据湖与数据仓库:初学者的指南
大数据·数据仓库·spark
Java资深爱好者2 天前
如何使用Spark SQL进行复杂的数据查询和分析
大数据·sql·spark