spark

阶段性:

一、单机时代

特点:

1.硬件资源有限:单机系统的计算能力、存储容量和内存空间都受限于单台计算机的硬件配置。例如早期的个人电脑,通常只有几百兆的内存和几 GB 的硬盘空间。

2.数据处理能力有限:主要处理本地产生的小规模数据,数据量一般在 MB 级别到 GB 级别之间。如单机版的财务软件,只处理一个小型企业内部的少量财务数据。

3.应用场景简单:主要用于个人办公、简单的游戏娱乐或小型企业的基本业务处理,如文字处理、单机游戏、简单的库存管理等。

局限性:

1.无法处理大规模数据:随着业务的发展和数据量的增长,单机系统很快就会遇到存储和处理能力的瓶颈,无法应对海量数据的存储和分析需求。

2.可靠性和可用性较低:一旦单机出现故障,整个系统就会瘫痪,导致业务中断,数据也可能丢失,没有冗余机制来保证数据的安全和业务的连续性。

3.扩展性差:难以通过简单的方式增加计算和存储资源来满足不断增长的业务需求,升级硬件往往受到兼容性等多种因素的限制。

二、大数据时代-分布式处理

定义:是将一个大型的计算任务或数据处理任务分解成多个子任务,然后分配到多个计算节点(如多台服务器)上进行并行处理,最后将各个子任务的处理结果汇总得到最终结果的过程。

特点:提高处理能力:通过将任务分散到多个节点上并行计算,能够大大提高数据处理的速度和效率,从而可以在短时间内处理海量数据,满足大数据时代对数据处理的实时性和高效性要求。

三、实时大数据时代

hadoop慢因为它的计算结果保存在磁盘将其处理在spark中可解决计算慢的问题因为spark将计算结果保存在内存中

hadoop特点:1.高可靠性 2.高拓展性 3.高效性 4.高容错性

相关推荐
武子康22 分钟前
大数据-100 Spark DStream 转换操作全面总结:map、reduceByKey 到 transform 的实战案例
大数据·后端·spark
武子康1 天前
大数据-99 Spark Streaming 数据源全面总结:原理、应用 文件流、Socket、RDD队列流
大数据·后端·spark
计算机毕业设计木哥2 天前
计算机毕设选题推荐:基于Java+SpringBoot物品租赁管理系统【源码+文档+调试】
java·vue.js·spring boot·mysql·spark·毕业设计·课程设计
IT毕设梦工厂2 天前
大数据毕业设计选题推荐-基于大数据的客户购物订单数据分析与可视化系统-Hadoop-Spark-数据可视化-BigData
大数据·hadoop·数据分析·spark·毕业设计·源码·bigdata
大数据CLUB2 天前
基于spark的澳洲光伏发电站选址预测
大数据·hadoop·分布式·数据分析·spark·数据开发
计算机编程小央姐3 天前
跟上大数据时代步伐:食物营养数据可视化分析系统技术前沿解析
大数据·hadoop·信息可视化·spark·django·课程设计·食物
孟意昶3 天前
Spark专题-第一部分:Spark 核心概述(2)-Spark 应用核心组件剖析
大数据·spark·big data
智海观潮3 天前
Spark SQL | 目前Spark社区最活跃的组件之一
大数据·spark
盛源_013 天前
hadoop的api操作对象存储
hdfs·spark