spark分布式解压工具

spark分布式解压工具

文章目录

一、目标

​ spark解压缩工具,目前支持tar、gz、zip、bz2、7z压缩格式,默认解压到当前路下,也支持自定义的解压输出路径。另外支持多种提交模式,进行解压任务,可通过自定义配置文件,作为spark任务的资源设定

二、详细设计

2.1 使用hadoop的FileSystem类,对tos文件的进行读取、查找、写入等操作

2.2 获取到tos文件或目录,对压缩文件进行解压,解压成字节数组,以流的方式写入tos文件系统

2.3 使用maven工具打包,单独生成一个spark配置文件(提交spark作业时进行资源的分配),每次启动spark job时,会加载这个自定义配置文件

2.4 封装到shell脚本,通过sparktar命令执行解压

三、操作说明

1.提交模式

支持3种spark的提交模式,建议7z解压用yarn-client|cluster模式提交,主要会涉及到写磁盘的流程,避免把单节点磁盘打满的风险

tar zip bz2 7z
本地local模式 支持 支持 支持 支持
yarn-client 支持 支持 支持 支持
yarn-cluster 支持 支持 支持 支持

2.压缩输出路径支持2种方式

a)默认直接解压到当前路径,不会覆盖原始压缩文件;

b)还可以指定解压输出路径

3.操作命令及说明

3.1操作命令

目前已在172.24.12.118机器配置好了,可通过 sparktar 命令来执行解压操作

sparktar -cluster tos://report/tmp/tar/ tos://report/tmptar/ tmp.produce.properties

3.2命令说明

sparktar 提交方式 解压路径 [解压输出路径] 配置文件

提交方式, 必选参数,提交可选3种方式: -client, -local, -cluster

解压路径: 必选参数,支持输入路径和文件绝对路径, 比如tos://report/tmp/或tos://report/tmp/xx.gz

输出路径: 非必选参数,默认解压到当前路径下

配置文件: 必选参数,约定在/bin/spark-tar/config下创建, 文件格式xxx.produce.properties(后缀名统一写成produce.properties, xxx前缀自定义写,最好是见名知意,后面xxx作为spark作业名称)

四、操作案例

4.1案例1

yarn-cluster模式,将tos://report/tmp/下的压缩包,解压到当前路径

第一步:在/bin/spark-tar/config路径下编写配置文件

vim /bin/spark-tar/config/tmp.produce.properties

properties 复制代码
# spark.driver内存
spark.driver.memory=1g

# spark.driver的核数
spark.driver.cores=2

# spark.executor的核数,官网推荐4~5个
spark.executor.cores=4

# spark.executor内存,大概1个yarn节点总内存/1个yarn节点的excuter数,具体还需要结合job的数据集以及划分并行度情况设定
spark.executor.memory=4g

# executor的个数
spark.executor.instances=4

# yarn.executor堆外内存
spark.yarn.executor.memoryOverhead=1g

spark代码已提交到git仓库,访问地址:https://gitee.com/dyhsmile/spark-tar-tools/

相关推荐
茶杯梦轩3 天前
从零起步学习RabbitMQ || 第三章:RabbitMQ的生产者、Broker、消费者如何保证消息不丢失(可靠性)详解
分布式·后端·面试
回家路上绕了弯5 天前
深入解析Agent Subagent架构:原理、协同逻辑与实战落地指南
分布式·后端
得物技术6 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
肌肉娃子10 天前
20260227.spark.Spark 性能刺客:千万别在 for 循环里写 withColumn
spark
初次攀爬者10 天前
ZooKeeper 实现分布式锁的两种方式
分布式·后端·zookeeper
B站计算机毕业设计超人11 天前
计算机毕业设计Django+Vue.js音乐推荐系统 音乐可视化 大数据毕业设计 (源码+文档+PPT+讲解)
大数据·vue.js·hadoop·python·spark·django·课程设计
十月南城11 天前
数据湖技术对比——Iceberg、Hudi、Delta的表格格式与维护策略
大数据·数据库·数据仓库·hive·hadoop·spark
Asher050911 天前
Spark核心基础与架构全解析
大数据·架构·spark
断手当码农11 天前
Redis 实现分布式锁的三种方式
数据库·redis·分布式
初次攀爬者11 天前
Redis分布式锁实现的三种方式-基于setnx,lua脚本和Redisson
redis·分布式·后端