Spark基本介绍

一,Spark是什么

1.定义:Aache Spark是用于大规模数据处理的统一分析引擎。

二,Spark的发展

三,Spark的特点

  • 高效性

    • 计算速度快

      • 提供了一个全新的数据结构RDD(弹性分布式数据集)。整个计算操作,基于内存计算。当内存不足的时候,可以放置到磁盘上。整个流程是基于DAG(有向无环图)执行方案。

      • Task线程完成计算任务执行

  • 易用性

    • 支持多种语言开发 (Python,SQL,Java,Scala,R),降低了学习难度
  • 通用性

    • 在 Spark 的基础上,Spark 还提供了包括Spark SQL、Spark Streaming、MLlib 及GraphX在内的多个工具库(模块),我们可以在一个应用中无缝地使用这些工具库。
  • 兼容性(任何地方运行)

    • 支持三方工具接入

      • 存储工具

        • hdfs

        • kafka

        • hbase

      • 资源调度

        • yarn

        • Kubernetes(K8s容器)

        • standalone(spark自带的)

      • 高可用

        • zookeeper
    • 支持多种操作系统

      • Linux

      • windows

      • Mac

给一个快速记忆的方法: speed, easy use , general , runs everywhere

相关推荐
QYR_1135 分钟前
防水医用无人机市场报告:现状、趋势与洞察
大数据·网络·市场研究
阿里云大数据AI技术35 分钟前
数据开发再提速!DataWorks正式接入Qwen3-Coder
大数据·人工智能·数据分析
Xxtaoaooo37 分钟前
MCP协议全景解析:从工业总线到AI智能体的连接革命
大数据·人工智能·mcp协议·mcp解析·工业mcp
jarreyer1 小时前
【语义分割】记录2:yolo系列
大数据·yolo·elasticsearch
青云交1 小时前
Java 大视界 -- Java 大数据在智能安防入侵检测系统中的多源数据融合与误报率降低策略(369)
java·大数据·入侵检测·智能安防·多源数据融合·误报率降低·视频语义理解
程思扬2 小时前
无界设计新生态:Penpot开源平台与cpolar的云端协同创新实践
大数据·linux·服务器·前端·经验分享·ubuntu·开源
武子康2 小时前
大数据-54 Kafka 安装配置 从 ZooKeeper 到 KRaft 的演进之路
大数据·后端·kafka
爱埋珊瑚海~~2 小时前
开源AI智能体-JoyAgent集成Deepseek
大数据·人工智能·ai智能体
sunxunyong2 小时前
kafka开启Kerberos使用方式
分布式·kafka·linq
风象南4 小时前
用 4 张图解释 CAP 到底在纠结什么
java·分布式·后端