Kubernetes运行大数据组件-运行spark

在Kubernetes上运行Spark作业,你需要创建一个Spark的部署和相应的Kubernetes资源。以下是一个简化的例子,展示了如何使用Kubernetes部署Spark Driver和Executor。

首先,确保你有一个运行中的Kubernetes集群,并且kubectl 命令行工具已经配置好可以与集群通信。

创建Spark的配置 ConfigMap:

apiVersion: v1

kind: ConfigMap

metadata:

name: spark-config

data:

spark-defaults.conf: |

spark.kubernetes.driver.pod.name=spark-driver-pod

spark.kubernetes.executor.pod.namespace=default

...

创建Spark Driver的部署:

apiVersion: apps/v1

kind: Deployment

metadata:

name: spark-driver

spec:

replicas: 1

template:

metadata:

labels:

component: spark

node: driver

spec:

containers:

  • name: spark-kubernetes-driver

image: gcr.io/spark-operator/spark-driver:v2.4.5

command: ["/bin/spark-submit"]

args: [

"--master", "k8s",

"--deploy-mode", "cluster",

"--name", "spark-job",

"--class", "org.apache.spark.examples.SparkPi",

"--conf", "spark.kubernetes.driver.pod.name=spark-driver-pod",

...

"local:///path/to/your/spark/job.jar"

]

env:

  • name: SPARK_CONF_DIR

value: "/opt/spark/conf"

volumeMounts:

  • name: spark-config-volume

mountPath: /opt/spark/conf

volumes:

  • name: spark-config-volume

configMap:

name: spark-config

创建Spark Executor的部署:

apiVersion: apps/v1

kind: Deployment

metadata:

name: spark-executors

spec:

replicas: 2

template:

metadata:

labels:

component: spark

node: executor

spec:

containers:

  • name: spark-kubernetes-executor

image: gcr.io/spark-operator/spark-executor:v2.4.5

env:

  • name: SPARK_K8S_EXECUTOR_POD_NAME

valueFrom:

fieldRef:

fieldPath: metadata.name

  • name: SPARK_CONF_DIR

value: "/opt/spark/conf"

volumeMounts:

  • name: spark-config-volume

mountPath: /opt/spark/conf

volumes:

  • name: spark-config-volume

configMap:

name: spark-config

确保替换以上配置中的镜像版本和Spark作业的jar路径以及参数。这些YAML文件定义了Spark作业在Kubernetes上的基本部署,包括配置、驱动器和执行器的部署。

要运行这些部署,只需将这些YAML文件应用到你的Kubernetes集群:

kubectl apply -f spark-config.yaml

kubectl apply -f spark-driver.yaml

kubectl apply -f spark-executors.yaml

这将启动一个Spark作业,其中包括一个Driver和多个Executor。Kubernetes将负责调度和管理这些容器的生命周期。

相关推荐
浩浩kids4 分钟前
Hadoop•踩过的SHIT
大数据·hadoop·分布式
qr9j422338 分钟前
elasticsearch 如果按照日期进行筛选
大数据·elasticsearch·jenkins
DavidSoCool14 分钟前
es分页边界数据重复问题处理
大数据·elasticsearch·搜索引擎
路由侠内网穿透21 分钟前
本地部署开源流处理框架 Apache Flink 并实现外部访问
大数据·网络协议·tcp/ip·flink·服务发现·apache·consul
小刘爱喇石( ˝ᗢ̈˝ )1 小时前
玛卡巴卡的k8s知识点问答题(七)
云原生·容器·kubernetes
qq_5470261792 小时前
Elasticsearch 正排索引
大数据·elasticsearch·jenkins
小哈里2 小时前
【运维】云计算的发展历程,云原生时代的运维理念&工具技术栈,高可用系统的云运维 —— 以K8S集群调度算法与命令为例
运维·云原生·kubernetes·云计算·架构设计
{⌐■_■}2 小时前
【Kubernetes】如何使用 kubeadm 搭建 Kubernetes 集群?还有哪些部署工具?
云原生·容器·kubernetes
宝哥大数据3 小时前
Flinksql--订单宽表
大数据·flink
云上艺旅5 小时前
K8S学习之基础六十九:Rancher创建svc资源
学习·云原生·容器·kubernetes·rancher