【教程】如何编译指定版本Spark

背景

我们目前在K8S集群中使用的spark是,基于kubeflow的Spark-Operator来运行的,对应的spark版本: 3.2.1

为啥要编译指定版本的Spark?

主要是需要读取一个消息队列的数据源, 看到有对应数据源spark读取的实现,有现成的。不过,是基于低版本spark 2.3的实现,想直接拿来用(果然没有现成的馅饼)。

结果: 悲剧了, 根本用不上。 还遇到一堆问题(不支持 On K8S、 spark operator的兼容性问题)

最终: 跑是跑起来了, 只能local模式。On K8S的问题有太多兼容性问题

所以,想着总结一下在这过程中遇到的问题

源码下载

Apache Spark, 选择对应的分支即可, 以下操作都以branch-2.3为例

准备工具

正式编译

假设你当前正在下载的spark根目录**${source_code_root}**

添加模块编译:

  • -Pkubernetes: 启用 Kubernetes 模块

编译命令如下:

复制代码
./build/sbt  -Pkubernetes clean package

编译结果

在编译完成后,产生的结果如下:

  • 运行环境的jar包: {source_code_root}/assembly/target/scala-{scala_version}/jars

注意: 不同模块编译时,依赖生产的位置不同,最终都会放入这个jars目录下

  • spark-submit: ${source_code_root}/bin
  • spark-class: ${source_code_root}/bin
  • entrypoint.sh${source_code_root}/resource-managers/kubernetes/docker/src/main/dockerfiles/spark

运行程序

复制代码
./bin/spark-submit \
    --master k8s://https://<k8s-apiserver-host>:<k8s-apiserver-port> \
    --deploy-mode cluster \
    --name spark-pi \
    --class org.apache.spark.examples.SparkPi \
    --conf spark.executor.instances=5 \
    --conf spark.kubernetes.container.image=<spark-image> \
    local:///path/to/examples.jar

遇到的报错

  1. Exception in thread "main" org.apache.spark.SparkException: The Kubernetes mode does not yet support referencing application dependencies in the local file system.

解决方案: 不是spark的依赖jar的问题,是你需要提交的程序jar的问题,一般都是没有在需要运行的程序前面加: **local://**导致的

相关推荐
QYZL_AIGC8 分钟前
全域众链AI赋能实体,开启数字化转型新生态
大数据·人工智能
SCKJAI9 分钟前
推出高效能机器人边缘人工智能(AI)平台 ARC6N0 T5X
大数据·人工智能
TTBIGDATA12 分钟前
【Knox编译】webhdfs-test 依赖收敛冲突问题处理
大数据·hadoop·ambari·hdp·kerberos·knox·bigtop
金融小师妹43 分钟前
机器学习捕捉地缘溢价:黄金突破一周高位,AI预测模型验证趋势强度
大数据·人工智能·深度学习
小王毕业啦1 小时前
2003-2023年 285个地级市邻接矩阵、经济地理矩阵等8个矩阵数据
大数据·人工智能·数据挖掘·数据分析·数据统计·社科数据·实证数据
安达发公司1 小时前
安达发|石油化工行业自动排产软件:驱动产业升级的核心引擎
大数据·人工智能·aps高级排程·aps排程软件·安达发aps·自动排产软件
摸鱼仙人~1 小时前
跨文化范式迁移与数字经济重构:借鉴日本IP工业化经验构建中国特色现代文化产业体系深度研究报告
大数据·人工智能
DKunYu1 小时前
2.分支管理
大数据·git·elasticsearch·搜索引擎·gitee
摸鱼仙人~1 小时前
中国内需市场的战略重构与潜在增长点深度研究报告
大数据·人工智能
云飞云共享云桌面1 小时前
非标自动化工厂的设计云桌面为什么要选云飞云智能共享云桌面?
大数据·运维·服务器·网络·自动化·负载均衡