flink on yarn paimon

目录

概述

ogg kafka paimon

实践

前置准备请看如下文章

文章 链接
hadoop一主三从安装 链接
spark on yarn 链接
flink的yarn-session环境 链接

paimon

目标:

  • 1.同步表
  • 2.能过 kafka 向 paimon写入
bash 复制代码
SET parallelism.default =2;
set table.exec.sink.not-null-enforcer = drop;

SET jobmanager.memory.process.size = 2048m;
SET taskmanager.memory.process.size = 10240m;
SET taskmanager.memory.managed.size = 128m;



CREATE CATALOG paimon WITH (
    'type' = 'paimon',
    'warehouse' = 'hdfs:///data/paimon',
    'default-database'='ods'
);


USE CATALOG paimon;



DROP TABLE IF EXISTS xx_REFDES_KAFKA;
CREATE  TEMPORARY xx_REFDES_KAFKA
(   `PCBID` STRING
    ,`RID` STRING
    ,`REFDES` STRING
    ,`BM_CIRCUIT_NO` DECIMAL(38,0)
    ,`TIMESTAMP` TIMESTAMP
    ,`PICKUPSTATUS` STRING
    ,`SERIAL_NUMBER` STRING
    ,`FLAG` DECIMAL(2,0)
    ,`KITID` STRING
    ,`ID` STRING
    ,`CREATEDATE` TIMESTAMP
    ,`ETL` STRING COMMENT 'etl标识'
    ,`OPT1` STRING COMMENT '备用1'
    ,`OPT2` STRING COMMENT '备用2'
    ,`OPT3` STRING COMMENT '备用3'
    ,`OPT4` STRING COMMENT '备用4'
    ,`OPT5` STRING COMMENT '备用5'
    ,`NOZZLEID` STRING COMMENT 'nxt的NOZZLEID'
    ,`LANENO` STRING COMMENT 'nxt的LANENO'
    ,`COMPONENTBARCODE` STRING COMMENT 'asm的componentBarcode nxt的Part2DCode'
    ,`PN` STRING
    ,`LOTCODE` STRING
    ,`DATECODE` STRING
    ,`VERDOR` STRING
    ,`WORKORDER` STRING
    ,primary key(ID) not enforced)
WITH(
 'connector' = 'kafka',
  'topic' = 'TRACE_LOG_REFDES',
  'properties.bootstrap.servers' = '10.xx.xx.30:9092',
  'properties.group.id' = 'xx_REFDES_GROUP',
  'scan.startup.mode' = 'earliest-offset',
  'format' = 'ogg-json'
);


create table if not exists  yy_refdes_hive_ro
(     `pcbid` string
    ,`rid` string
    ,`refdes` string
    ,`bm_circuit_no` decimal(38,0)
    ,`timestamp` string COMMENT '{"type":"DATE"}'
    ,`pickupstatus` string
    ,`serial_number` string
    ,`flag` decimal(2,0)
    ,`kitid` string
    ,`id` string
    ,`createdate` string COMMENT '{"type":"DATE"}'
    ,`etl` string comment 'etl标识'
    ,`opt1` string comment '备用1'
    ,`opt2` string comment '备用2'
    ,`opt3` string comment '备用3'
    ,`opt4` string comment '备用4'
    ,`opt5` string comment '备用5'
    ,`nozzleid` string comment 'nxt的nozzleid'
    ,`laneno` string comment 'nxt的laneno'
    ,`componentbarcode` string comment 'asm的componentbarcode nxt的part2dcode'
    ,`pn` string
    ,`lotcode` string
    ,`datecode` string
    ,`verdor` string
    ,`workorder` string
    ,`dt` string
   ,primary key (id,dt) not enforced)
    partitioned by (dt) with (
    'connector' = 'paimon',
    'file.format' = 'parquet',
    'metastore.partitioned-table' = 'true',
    'bucket' = '-1',
    'partition.expiration-time' = '730 d',
    'partition.expiration-check-interval' = '1 d',
    'partition.timestamp-formatter' = 'yyyy-MM-dd',
    'partition.timestamp-pattern' = '$dt'
    );


INSERT INTO yy_refdes_hive_ro  SELECT 
PCBID,RID,REFDES,BM_CIRCUIT_NO,DATE_FORMAT(`TIMESTAMP`,'yyyy-MM-dd HH:mm:ss'),PICKUPSTATUS,SERIAL_NUMBER,FLAG,KITID,ID,DATE_FORMAT(CREATEDATE,'yyyy-MM-dd HH:mm:ss'),ETL,OPT1,OPT2,OPT3,OPT4,OPT5,NOZZLEID,LANENO,COMPONENTBARCODE,PN,LOTCODE,DATECODE,VERDOR,WORKORDER,DATE_FORMAT(`TIMESTAMP`,'yyyy-MM-dd') 
FROM xx_REFDES_KAFKA;

结束

ogg数据通过 flink 写入 paimon至此结束。

相关推荐
昨天今天明天好多天4 小时前
【数据仓库】
大数据
油头少年_w4 小时前
大数据导论及分布式存储HadoopHDFS入门
大数据·hadoop·hdfs
Elastic 中国社区官方博客5 小时前
释放专利力量:Patently 如何利用向量搜索和 NLP 简化协作
大数据·数据库·人工智能·elasticsearch·搜索引擎·自然语言处理
力姆泰克5 小时前
看电动缸是如何提高农机的自动化水平
大数据·运维·服务器·数据库·人工智能·自动化·1024程序员节
力姆泰克5 小时前
力姆泰克电动缸助力农业机械装备,提高农机的自动化水平
大数据·服务器·数据库·人工智能·1024程序员节
QYR市场调研5 小时前
自动化研磨领域的革新者:半自动与自动自磨机的技术突破
大数据·人工智能
半部论语7 小时前
第三章:TDengine 常用操作和高级功能
大数据·时序数据库·tdengine
EasyGBS7 小时前
国标GB28181公网直播EasyGBS国标GB28181软件管理解决方案
大数据·网络·音视频·媒体·视频监控·gb28181
2403_875736877 小时前
道品科技的水肥一体化智能灌溉:开启现代农业的创新征程
大数据·人工智能·1024程序员节
河南查新信息技术研究院7 小时前
科技查新在医药健康领域的应用
大数据·科技·全文检索