flink/spark/hive 使用paimon

Flink使用paimon

/usr/dif/7.1.0-0/flink/bin/sql-client.sh

CREATE CATALOG paimon_hive_catalog

WITH ( 'type'='paimon',

'metastore' = 'hive',

'hive-conf-dir'='/etc/hive/conf/',

'hadoop-conf-dir' = '/etc/hive/conf');

use catalog paimon_hive_catalog;

use ${DB};

XXXXXXXXXXXXXXXXXXXXXXXXXX

Spark on Hive(kyuubi)使用paimon

/usr/dif/7.1.0-0/kyuubi/bin/beeline -u 'jdbc:hive2://XXX:2181,XXX:2181,XXX:2181/;serviceDiscoveryMode=zooKeeper;zooKeeperNamespace=kyuubi;principal=ocdp/_HOST@XXX.COM;#spark.sql.catalog.paimon=org.apache.paimon.spark.SparkCatalog;spark.sql.catalog.spark_catalog=org.apache.paimon.spark.SparkGenericCatalog;spark.sql.catalog.paimon.warehouse=hdfs://XXX/apps/hive/warehouse;spark.sql.extensions=org.apache.paimon.spark.extensions.PaimonSparkSessionExtensions;spark.yarn.queue=XXX;spark.executor.cores=4;spark.driver.cores=2;spark.executor.instances=10;spark.executor.memory=8g'

XXXXXXXXXXXXXXXXXXXXXXXXXX

Spark Jar使用paimon

/usr/dif/7.1.0-0/spark/bin/spark-submit

--master yarn

--deploy-mode client

--driver-memory 1G

--num-executors 2

--executor-cores 2

--executor-memory 4G

--name "SparkODSJob"

--class com.goertek.it.main.gmes.OdsGMesHiveMain

--conf spark.sql.catalog.spark_catalog=org.apache.paimon.spark.SparkGenericCatalog

--conf spark.sql.catalog.paimon=org.apache.paimon.spark.SparkCatalog

--conf spark.sql.catalog.paimon.warehouse=hdfs://goertekwf/apps/hive/warehouse

--conf spark.sql.catalog.paimon.metastore=hive

--conf spark.sql.extensions=org.apache.paimon.spark.extensions.PaimonSparkSessionExtensions

--conf spark.yarn.principal=wf_bpit_mes@XXX.COM

--conf spark.yarn.keytab=/data01/dataos/apps/keytabs/wf_bpit_mes.keytab

--conf 'spark.driver.extraJavaOptions=-Djava.security.krb5.conf=/etc/krb5.conf'

--conf 'spark.driverEnv.KRB5_CONFIG=/etc/krb5.conf'

hdfs:///spark_jar/spark3-1.0-SNAPSHOT.jar

"test" "152" "165" "${batchNo}"

相关推荐
Light606 小时前
从“报告”到“能力”——构建智能化、可审计的数据治理闭环——领码 SPARK 数据质量平台白皮书
大数据·分布式·spark
火龙谷7 小时前
day2-采集数据
spark
奕成则成9 小时前
Flink全面入门指南:从基础认知到BI数据仓库实践
大数据·数据仓库·flink
2501_941882481 天前
AI系统工程化架构与大模型部署实践分享
flink
Jackyzhe1 天前
Flink源码阅读:Netty通信
大数据·flink
大厂技术总监下海1 天前
从Hadoop MapReduce到Apache Spark:一场由“磁盘”到“内存”的速度与范式革命
大数据·hadoop·spark·开源
zgl_200537791 天前
ZGLanguage 解析SQL数据血缘 之 Python提取SQL表级血缘树信息
大数据·数据库·数据仓库·hive·hadoop·python·sql
麦麦大数据1 天前
F052pro 基于spark推荐的中医古籍知识图谱可视化推荐系统|spark mlib|hadoop|docker集群
docker·spark-ml·spark·知识图谱·可是还·中医推荐·ehcarts
青云交1 天前
Java 大视界 -- Java+Flink CDC 构建实时数据同步系统:从 MySQL 到 Hive 全增量同步(443)
java·mysql·flink·实时数据同步·java+flink cdc·mysql→hive·全增量同步
Hello.Reader1 天前
PyFlink Metrics 在 UDF 里埋点(Counter/Gauge/Distribution/Meter)、分组 Scope、生产可观测性最佳实践
python·flink