flink on yarn paimon

目录

概述

ogg kafka paimon

实践

前置准备请看如下文章

文章 链接
hadoop一主三从安装 链接
spark on yarn 链接
flink的yarn-session环境 链接

paimon

目标:

  • 1.同步表
  • 2.能过 kafka 向 paimon写入
bash 复制代码
SET parallelism.default =2;
set table.exec.sink.not-null-enforcer = drop;

SET jobmanager.memory.process.size = 2048m;
SET taskmanager.memory.process.size = 10240m;
SET taskmanager.memory.managed.size = 128m;



CREATE CATALOG paimon WITH (
    'type' = 'paimon',
    'warehouse' = 'hdfs:///data/paimon',
    'default-database'='ods'
);


USE CATALOG paimon;



DROP TABLE IF EXISTS xx_REFDES_KAFKA;
CREATE  TEMPORARY xx_REFDES_KAFKA
(   `PCBID` STRING
    ,`RID` STRING
    ,`REFDES` STRING
    ,`BM_CIRCUIT_NO` DECIMAL(38,0)
    ,`TIMESTAMP` TIMESTAMP
    ,`PICKUPSTATUS` STRING
    ,`SERIAL_NUMBER` STRING
    ,`FLAG` DECIMAL(2,0)
    ,`KITID` STRING
    ,`ID` STRING
    ,`CREATEDATE` TIMESTAMP
    ,`ETL` STRING COMMENT 'etl标识'
    ,`OPT1` STRING COMMENT '备用1'
    ,`OPT2` STRING COMMENT '备用2'
    ,`OPT3` STRING COMMENT '备用3'
    ,`OPT4` STRING COMMENT '备用4'
    ,`OPT5` STRING COMMENT '备用5'
    ,`NOZZLEID` STRING COMMENT 'nxt的NOZZLEID'
    ,`LANENO` STRING COMMENT 'nxt的LANENO'
    ,`COMPONENTBARCODE` STRING COMMENT 'asm的componentBarcode nxt的Part2DCode'
    ,`PN` STRING
    ,`LOTCODE` STRING
    ,`DATECODE` STRING
    ,`VERDOR` STRING
    ,`WORKORDER` STRING
    ,primary key(ID) not enforced)
WITH(
 'connector' = 'kafka',
  'topic' = 'TRACE_LOG_REFDES',
  'properties.bootstrap.servers' = '10.xx.xx.30:9092',
  'properties.group.id' = 'xx_REFDES_GROUP',
  'scan.startup.mode' = 'earliest-offset',
  'format' = 'ogg-json'
);


create table if not exists  yy_refdes_hive_ro
(     `pcbid` string
    ,`rid` string
    ,`refdes` string
    ,`bm_circuit_no` decimal(38,0)
    ,`timestamp` string COMMENT '{"type":"DATE"}'
    ,`pickupstatus` string
    ,`serial_number` string
    ,`flag` decimal(2,0)
    ,`kitid` string
    ,`id` string
    ,`createdate` string COMMENT '{"type":"DATE"}'
    ,`etl` string comment 'etl标识'
    ,`opt1` string comment '备用1'
    ,`opt2` string comment '备用2'
    ,`opt3` string comment '备用3'
    ,`opt4` string comment '备用4'
    ,`opt5` string comment '备用5'
    ,`nozzleid` string comment 'nxt的nozzleid'
    ,`laneno` string comment 'nxt的laneno'
    ,`componentbarcode` string comment 'asm的componentbarcode nxt的part2dcode'
    ,`pn` string
    ,`lotcode` string
    ,`datecode` string
    ,`verdor` string
    ,`workorder` string
    ,`dt` string
   ,primary key (id,dt) not enforced)
    partitioned by (dt) with (
    'connector' = 'paimon',
    'file.format' = 'parquet',
    'metastore.partitioned-table' = 'true',
    'bucket' = '-1',
    'partition.expiration-time' = '730 d',
    'partition.expiration-check-interval' = '1 d',
    'partition.timestamp-formatter' = 'yyyy-MM-dd',
    'partition.timestamp-pattern' = '$dt'
    );


INSERT INTO yy_refdes_hive_ro  SELECT 
PCBID,RID,REFDES,BM_CIRCUIT_NO,DATE_FORMAT(`TIMESTAMP`,'yyyy-MM-dd HH:mm:ss'),PICKUPSTATUS,SERIAL_NUMBER,FLAG,KITID,ID,DATE_FORMAT(CREATEDATE,'yyyy-MM-dd HH:mm:ss'),ETL,OPT1,OPT2,OPT3,OPT4,OPT5,NOZZLEID,LANENO,COMPONENTBARCODE,PN,LOTCODE,DATECODE,VERDOR,WORKORDER,DATE_FORMAT(`TIMESTAMP`,'yyyy-MM-dd') 
FROM xx_REFDES_KAFKA;

结束

ogg数据通过 flink 写入 paimon至此结束。

相关推荐
蘑菇物联6 分钟前
蘑菇物联入选“预见·2026”年度双榜,以AI技术赋能制造业绿色转型!
大数据·人工智能
跨境小技9 分钟前
Reddit营销:如何在Reddit写出“像用户一样”的营销贴?、
大数据
m0_4665252934 分钟前
东软与葫芦岛市民政局签约 共建智慧养老服务平台
大数据·人工智能
乐居生活官39 分钟前
2026五大功能全面的电商软件测评:打造全链路智能运营体系
大数据·人工智能
ws2019071 小时前
智驾与电池双线突破?AUTO TECH China 2026广州新能源汽车展解码产业新局
大数据·人工智能·科技·汽车
2501_941982051 小时前
企业微信外部群精准运营:API 主动推送消息开发指南
大数据·人工智能·企业微信
2501_911067662 小时前
光能筑底,智联全城——叁仟智慧太阳能路灯杆重构城市基础设施新生态
大数据·人工智能·重构
Hello.Reader2 小时前
Flink JobManager 内存配置指南别让“控制面”先 OOM
大数据·flink
泰迪智能科技3 小时前
分享|联合编写教材入选第二批“十四五”职业教育国家规划教材名单
大数据·人工智能
TDengine (老段)3 小时前
TDengine 脱敏函数用户手册
大数据·服务器·数据库·物联网·时序数据库·iot·tdengine