flink任务提交example

(1) Start Kubernetes session

./bin/kubernetes-session.sh -Dkubernetes.cluster-id=session-first-flink-cluster

(2) Submit example job

./bin/flink run \ --target kubernetes-session \ -Dkubernetes.cluster-id=session-first-flink-cluster \ ./examples/streaming/TopSpeedWindowing.jar

(3) Stop Kubernetes session by deleting cluster deployment

kubectl delete deployment/session-first-flink-cluster

/home/flink-1.19.0/bin/flink run-application --target kubernetes-application -Dkubernetes.cluster-id=my-first-application-cluster -Dkubernetes.container.image.ref=flink:1.19.0-scala_2.12-java17 local:///home/flink-1.19.0/examples/streaming/SessionWindowing.jar

========================================================================================================================================================

List running job on the cluster

$ ./bin/flink list --target kubernetes-application -Dkubernetes.cluster-id=my-first-application-cluster

Cancel running job

$ ./bin/flink cancel --target kubernetes-application -Dkubernetes.cluster-id=my-first-application-cluster <jobId>

./bin/flink run-application \ --target kubernetes-application \ -Dkubernetes.cluster-id=my-first-application-cluster \ -Dkubernetes.namespace=csg \ -Dkubernetes.service-account=csg \ -Dkubernetes.container.image=flink:1.19.0-scala_2.12-java17 \ -Dkubernetes.rest-service.exposed.type=NodePort \ -Dkubernetes.pod-template-file.jobmanager=/home/pod-template.yaml \ local:///opt/flink/jars/TopSpeedWindowing.jar

./bin/flink run-application \ --target kubernetes-application \ -Dkubernetes.cluster-id=my-first-application-cluster \ -Dkubernetes.namespace=csg \ -Dkubernetes.container.image=flink:1.19.0-scala_2.12-java17 \ -Dkubernetes.user.artifacts.raw-http-enabled=true \ -Dkubernetes.rest-service.exposed.type=NodePort \ https://github.com/turboic/myJar/blob/main/TopSpeedWindowing.jar ./bin/flink run-application \ --target kubernetes-application \ -Dkubernetes.cluster-id=my-first-application-cluster \ -Dkubernetes.namespace=csg \ -Dkubernetes.container.image=flink:1.19.0-scala_2.12-java17 \ -Dkubernetes.rest-service.exposed.type=NodePort \ -Dkubernetes.pod-template-file.jobmanager=/home/pod-template.yaml \ http://file-service:8080/file/download/TopSpeedWindowing.jar

========================================================================================================================================================

./bin/flink run-application \ --target kubernetes-application \ -Dkubernetes.cluster-id=first-application-cluster \ -Dkubernetes.container.image=docker-dev/job:4.1.0-202107011136-e2e38 \ -Dkubernetes.container.image.pull-secrets=arm-repo-secret \ -Dkubernetes.rest-service.exposed.type=NodePort \ -Dkubernetes.pod-template-file.jobmanager=./job-template.yaml \ -Dhigh-availability=org.apache.flink.kubernetes.highavailability.KubernetesHaServicesFactory \ -Dhigh-availability.storageDir=file:///tmp/flink \ -Dclassloader.resolve-order=parent-first \ -c com.ericsson.cv.reactor.job.ReactorJobApplication \ local:///opt/flink/usrlib/job-4.1.0-202107011136-e2e38-with-dependency.jar --config.path "/opt/flink/usrconf/config.properties" --dispatcher.config.path "/opt/flink/usrconf/dispatcher-config.json" 例子 flink run-application -p 2 -t kubernetes-application \ -Dkubernetes.cluster-id={kubernetes_cluster_id} \\ -Dkubernetes.container.image={ACCOUNT_ID}.dkr.ecr.{AWS_REGION}.amazonaws.com/flink-demo:latest \\ -Dkubernetes.container.image.pull-policy=Always \\ -Dkubernetes.jobmanager.service-account=flink-service-account \\ -Dkubernetes.pod-template-file.jobmanager=./jobmanager-pod-template.yaml \\ -Dkubernetes.rest-service.exposed.type=LoadBalancer \\ -Dkubernetes.rest-service.annotations=service.beta.kubernetes.io/aws-load-balancer-security-groups:{EKS_EXTERNAL_SG} \ -Dhigh-availability=org.apache.flink.kubernetes.highavailability.KubernetesHaServicesFactory\ -Dhigh-availability.cluster-id={kubernetes_cluster_id} \\ -Dhigh-availability.storageDir=s3://{FLINK_S3_BUCKET}/recovery \ -Dstate.savepoints.dir=s3://{FLINK_S3_BUCKET}/savepoints/{kubernetes_cluster_id} \ -Dkubernetes.taskmanager.service-account=flink-service-account \ -Dkubernetes.taskmanager.cpu=1 \ -Dtaskmanager.memory.process.size=4096m \ -Dtaskmanager.numberOfTaskSlots=2 \ local:///opt/flink/usrlib/aws-kinesis-analytics-java-apps-1.0.jar \ --inputStreamName {FLINK_INPUT_STREAM} --region {AWS_REGION} --s3SinkPath s3://{FLINK_S3_BUCKET}/data --checkpoint-dir s3://{FLINK_S3_BUCKET}/recovery

https://github.com/aws-samples/cost-optimized-flink-on-kubernetes

相关推荐
武子康21 小时前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天1 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
武子康3 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive
武子康4 天前
大数据-235 离线数仓 - 实战:Flume+HDFS+Hive 搭建 ODS/DWD/DWS/ADS 会员分析链路
大数据·后端·apache hive
DianSan_ERP5 天前
电商API接口全链路监控:构建坚不可摧的线上运维防线
大数据·运维·网络·人工智能·git·servlet
够快云库5 天前
能源行业非结构化数据治理实战:从数据沼泽到智能资产
大数据·人工智能·机器学习·企业文件安全
AI周红伟5 天前
周红伟:智能体全栈构建实操:OpenClaw部署+Agent Skills+Seedance+RAG从入门到实战
大数据·人工智能·大模型·智能体
B站计算机毕业设计超人5 天前
计算机毕业设计Django+Vue.js高考推荐系统 高考可视化 大数据毕业设计(源码+LW文档+PPT+详细讲解)
大数据·vue.js·hadoop·django·毕业设计·课程设计·推荐算法
计算机程序猿学长5 天前
大数据毕业设计-基于django的音乐网站数据分析管理系统的设计与实现(源码+LW+部署文档+全bao+远程调试+代码讲解等)
大数据·django·课程设计
B站计算机毕业设计超人5 天前
计算机毕业设计Django+Vue.js音乐推荐系统 音乐可视化 大数据毕业设计 (源码+文档+PPT+讲解)
大数据·vue.js·hadoop·python·spark·django·课程设计