flink on yarn paimon

目录

概述

ogg kafka paimon

实践

前置准备请看如下文章

文章 链接
hadoop一主三从安装 链接
spark on yarn 链接
flink的yarn-session环境 链接

paimon

目标:

  • 1.同步表
  • 2.能过 kafka 向 paimon写入
bash 复制代码
SET parallelism.default =2;
set table.exec.sink.not-null-enforcer = drop;

SET jobmanager.memory.process.size = 2048m;
SET taskmanager.memory.process.size = 10240m;
SET taskmanager.memory.managed.size = 128m;



CREATE CATALOG paimon WITH (
    'type' = 'paimon',
    'warehouse' = 'hdfs:///data/paimon',
    'default-database'='ods'
);


USE CATALOG paimon;



DROP TABLE IF EXISTS xx_REFDES_KAFKA;
CREATE  TEMPORARY xx_REFDES_KAFKA
(   `PCBID` STRING
    ,`RID` STRING
    ,`REFDES` STRING
    ,`BM_CIRCUIT_NO` DECIMAL(38,0)
    ,`TIMESTAMP` TIMESTAMP
    ,`PICKUPSTATUS` STRING
    ,`SERIAL_NUMBER` STRING
    ,`FLAG` DECIMAL(2,0)
    ,`KITID` STRING
    ,`ID` STRING
    ,`CREATEDATE` TIMESTAMP
    ,`ETL` STRING COMMENT 'etl标识'
    ,`OPT1` STRING COMMENT '备用1'
    ,`OPT2` STRING COMMENT '备用2'
    ,`OPT3` STRING COMMENT '备用3'
    ,`OPT4` STRING COMMENT '备用4'
    ,`OPT5` STRING COMMENT '备用5'
    ,`NOZZLEID` STRING COMMENT 'nxt的NOZZLEID'
    ,`LANENO` STRING COMMENT 'nxt的LANENO'
    ,`COMPONENTBARCODE` STRING COMMENT 'asm的componentBarcode nxt的Part2DCode'
    ,`PN` STRING
    ,`LOTCODE` STRING
    ,`DATECODE` STRING
    ,`VERDOR` STRING
    ,`WORKORDER` STRING
    ,primary key(ID) not enforced)
WITH(
 'connector' = 'kafka',
  'topic' = 'TRACE_LOG_REFDES',
  'properties.bootstrap.servers' = '10.xx.xx.30:9092',
  'properties.group.id' = 'xx_REFDES_GROUP',
  'scan.startup.mode' = 'earliest-offset',
  'format' = 'ogg-json'
);


create table if not exists  yy_refdes_hive_ro
(     `pcbid` string
    ,`rid` string
    ,`refdes` string
    ,`bm_circuit_no` decimal(38,0)
    ,`timestamp` string COMMENT '{"type":"DATE"}'
    ,`pickupstatus` string
    ,`serial_number` string
    ,`flag` decimal(2,0)
    ,`kitid` string
    ,`id` string
    ,`createdate` string COMMENT '{"type":"DATE"}'
    ,`etl` string comment 'etl标识'
    ,`opt1` string comment '备用1'
    ,`opt2` string comment '备用2'
    ,`opt3` string comment '备用3'
    ,`opt4` string comment '备用4'
    ,`opt5` string comment '备用5'
    ,`nozzleid` string comment 'nxt的nozzleid'
    ,`laneno` string comment 'nxt的laneno'
    ,`componentbarcode` string comment 'asm的componentbarcode nxt的part2dcode'
    ,`pn` string
    ,`lotcode` string
    ,`datecode` string
    ,`verdor` string
    ,`workorder` string
    ,`dt` string
   ,primary key (id,dt) not enforced)
    partitioned by (dt) with (
    'connector' = 'paimon',
    'file.format' = 'parquet',
    'metastore.partitioned-table' = 'true',
    'bucket' = '-1',
    'partition.expiration-time' = '730 d',
    'partition.expiration-check-interval' = '1 d',
    'partition.timestamp-formatter' = 'yyyy-MM-dd',
    'partition.timestamp-pattern' = '$dt'
    );


INSERT INTO yy_refdes_hive_ro  SELECT 
PCBID,RID,REFDES,BM_CIRCUIT_NO,DATE_FORMAT(`TIMESTAMP`,'yyyy-MM-dd HH:mm:ss'),PICKUPSTATUS,SERIAL_NUMBER,FLAG,KITID,ID,DATE_FORMAT(CREATEDATE,'yyyy-MM-dd HH:mm:ss'),ETL,OPT1,OPT2,OPT3,OPT4,OPT5,NOZZLEID,LANENO,COMPONENTBARCODE,PN,LOTCODE,DATECODE,VERDOR,WORKORDER,DATE_FORMAT(`TIMESTAMP`,'yyyy-MM-dd') 
FROM xx_REFDES_KAFKA;

结束

ogg数据通过 flink 写入 paimon至此结束。

相关推荐
视觉人机器视觉15 分钟前
MV-DLS1400P激光振镜立体相机(MV-DLS1400P)重要参数解析
大数据·人工智能·数码相机·机器人·c#·汽车
lqlj223320 分钟前
Hadoop序列化与反序列化具体实践
大数据·hadoop·分布式
钡铼技术物联网关30 分钟前
ARM分拣机vs传统PLC:实测数据揭示的4倍效率差
大数据·linux·arm开发·人工智能·边缘计算
Flink_China36 分钟前
Dinky 和 Flink CDC 在实时整库同步的探索之路
大数据·flink
旧故新长1 小时前
IDEA 中遇到 Git Log 界面不显示问题的解决方案
大数据·elasticsearch·搜索引擎
Lansonli2 小时前
大数据Spark(五十七):Spark运行架构与MapReduce区别
大数据·架构·spark
背着黄油面包的猫2 小时前
搭建hadoop集群模式并运行
大数据·hadoop·分布式
StarRocks_labs3 小时前
StarRocks 助力首汽约车精细化运营
大数据·数据库·starrocks·spark·数据查询·存算分离
青云交3 小时前
Java 大视界 -- 基于 Java 的大数据分布式缓存技术在电商高并发场景下的性能优化(181)
大数据·性能优化·高并发·电商·分布式缓存·java 大数据·缓存框架
TDengine (老段)3 小时前
TDengine.C/C++ 连接器
大数据·c语言·数据库·c++·时序数据库·tdengine·iotdb