flink operator 拉取阿里云私有镜像(其他私有类似)

创建 k8s secret

bash 复制代码
kubectl --namespace flink create secret docker-registry aliyun-docker-registry --docker-server=registry.cn-shenzhen.aliyuncs.com --docker-username=ops_acr@1060896234 --docker-password=passwd --docker-email=DOCKER_EMAIL

注意命名空间指定你使用的 我的命名空间是flink

secret type = docker-registry 这个是固定值不需要动

aliyun-docker-registry 为你的secret 取的固定名称

--docker-server 就是你私库地址

--docker-username 登录名称

--docker-password 登录密码

查看

bash 复制代码
kubectl get secret aliyun-docker-registry -n flink
#后面的命名空间不要忘记 要不然找不到
kubectl  --namespace flink get secret aliyun-docker-registry -o yaml
# 以yaml 的方式查看配置文件
json 复制代码
apiVersion: flink.apache.org/v1beta1
kind: FlinkDeployment
metadata:
  name: autoscaling-example
  namespace: flink
spec:
  imagePullPolicy: IfNotPresent
  flinkVersion: v1_18
  flinkConfiguration:
    job.autoscaler.enabled: "true"
    job.autoscaler.stabilization.interval: "1m"
    job.autoscaler.metrics.window: "3m"
    pipeline.max-parallelism: "24"
    taskmanager.numberOfTaskSlots: "2"
    state.savepoints.dir: hdfs:///flink/savepoints
    state.checkpoints.dir: hdfs:///flink/checkpoints
    high-availability.type: kubernetes
    high-availability.storageDir: hdfs:///flink/ha
    execution.checkpointing.interval: "1m"
    jobmanager.scheduler: adaptive
    job.autoscaler.target.utilization.boundary: "0.1"
  serviceAccount: flink
  podTemplate:
    apiVersion: v1
    kind: Pod
    metadata:
      name: pod-template
    spec:
      containers:
        - name: flink-main-container
          imagePullPolicy: IfNotPresent
          image: registry.cn-hangzhou.aliyuncs.com/liguo/autoscaling-example:17.0
      imagePullSecrets:
        - name: aliyun-docker-registry
  jobManager:
    resource:
      memory: "1024m"
      cpu: 1
  taskManager:
    resource:
      memory: "1024m"
      cpu: 1
  job:
    jarURI: local:///opt/flink/usrlib/flink1_18demo-1.0-SNAPSHOT.jar
    parallelism: 1
    upgradeMode: last-state

目前对k8s 刚刚接触1周所有对podTemplate 还是不太了解 目前这个配置时可用的 在pod 中拉取镜像引用 鉴权

提交

bash 复制代码
kubectl create -f test.yaml -n flink 
#我内部已经指定命名空间了 但是我习惯对外加上


日志持久化

非镜像部署

日志持久化到hdfs

相关推荐
武子康4 小时前
大数据-243 离线数仓 - 实战电商核心交易增量导入(DataX - HDFS - Hive 分区
大数据·后端·apache hive
代码匠心2 天前
从零开始学Flink:Flink SQL四大Join解析
大数据·flink·flink sql·大数据处理
武子康3 天前
大数据-242 离线数仓 - DataX 实战:MySQL 全量/增量导入 HDFS + Hive 分区(离线数仓 ODS
大数据·后端·apache hive
SelectDB4 天前
易车 × Apache Doris:构建湖仓一体新架构,加速 AI 业务融合实践
大数据·agent·mcp
武子康4 天前
大数据-241 离线数仓 - 实战:电商核心交易数据模型与 MySQL 源表设计(订单/商品/品类/店铺/支付)
大数据·后端·mysql
IvanCodes4 天前
一、消息队列理论基础与Kafka架构价值解析
大数据·后端·kafka
武子康5 天前
大数据-240 离线数仓 - 广告业务 Hive ADS 实战:DataX 将 HDFS 分区表导出到 MySQL
大数据·后端·apache hive
字节跳动数据平台6 天前
5000 字技术向拆解 | 火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
武子康6 天前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
字节跳动数据平台7 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据