flink/spark/hive 使用paimon

Flink使用paimon

/usr/dif/7.1.0-0/flink/bin/sql-client.sh

CREATE CATALOG paimon_hive_catalog

WITH ( 'type'='paimon',

'metastore' = 'hive',

'hive-conf-dir'='/etc/hive/conf/',

'hadoop-conf-dir' = '/etc/hive/conf');

use catalog paimon_hive_catalog;

use ${DB};

XXXXXXXXXXXXXXXXXXXXXXXXXX

Spark on Hive(kyuubi)使用paimon

/usr/dif/7.1.0-0/kyuubi/bin/beeline -u 'jdbc:hive2://XXX:2181,XXX:2181,XXX:2181/;serviceDiscoveryMode=zooKeeper;zooKeeperNamespace=kyuubi;principal=ocdp/_HOST@XXX.COM;#spark.sql.catalog.paimon=org.apache.paimon.spark.SparkCatalog;spark.sql.catalog.spark_catalog=org.apache.paimon.spark.SparkGenericCatalog;spark.sql.catalog.paimon.warehouse=hdfs://XXX/apps/hive/warehouse;spark.sql.extensions=org.apache.paimon.spark.extensions.PaimonSparkSessionExtensions;spark.yarn.queue=XXX;spark.executor.cores=4;spark.driver.cores=2;spark.executor.instances=10;spark.executor.memory=8g'

XXXXXXXXXXXXXXXXXXXXXXXXXX

Spark Jar使用paimon

/usr/dif/7.1.0-0/spark/bin/spark-submit

--master yarn

--deploy-mode client

--driver-memory 1G

--num-executors 2

--executor-cores 2

--executor-memory 4G

--name "SparkODSJob"

--class com.goertek.it.main.gmes.OdsGMesHiveMain

--conf spark.sql.catalog.spark_catalog=org.apache.paimon.spark.SparkGenericCatalog

--conf spark.sql.catalog.paimon=org.apache.paimon.spark.SparkCatalog

--conf spark.sql.catalog.paimon.warehouse=hdfs://goertekwf/apps/hive/warehouse

--conf spark.sql.catalog.paimon.metastore=hive

--conf spark.sql.extensions=org.apache.paimon.spark.extensions.PaimonSparkSessionExtensions

--conf spark.yarn.principal=wf_bpit_mes@XXX.COM

--conf spark.yarn.keytab=/data01/dataos/apps/keytabs/wf_bpit_mes.keytab

--conf 'spark.driver.extraJavaOptions=-Djava.security.krb5.conf=/etc/krb5.conf'

--conf 'spark.driverEnv.KRB5_CONFIG=/etc/krb5.conf'

hdfs:///spark_jar/spark3-1.0-SNAPSHOT.jar

"test" "152" "165" "${batchNo}"

相关推荐
juniperhan15 分钟前
link 系列第7篇:Flink 状态管理全解析(原理+类型+存储+实操)
大数据·数据仓库·flink
lifallen22 分钟前
Flink Agents:Python 执行链路与跨语言 Actor (PyFlink Agent)
java·大数据·人工智能·python·语言模型·flink
juniperhan1 小时前
Flink 系列第 3 篇:核心概念精讲|分布式缓存 + 重启策略 + 并行度 底层原理 + 代码实战 + 生产规范
大数据·分布式·缓存·flink
AI自动化工坊1 小时前
Meta Muse Spark技术深度解析:原生多模态推理架构实践指南
大数据·人工智能·架构·spark
juniperhan1 小时前
Flink 系列第6篇:Watermark 水印全解析(原理+实操+避坑)
大数据·数据仓库·flink
talen_hx2961 小时前
《零基础入门Spark》学习笔记 Day 15
大数据·笔记·学习·spark
talen_hx2961 天前
《零基础入门Spark》学习笔记 Day 14
大数据·笔记·学习·spark
Apache Flink1 天前
Flink Agents 0.3 Roadmap 解读
大数据·flink
xiaoyaohou111 天前
025、分布式计算实战:Spark Core与Spark SQL
sql·ajax·spark
xiaoyaohou111 天前
024、大数据技术栈概览:Hadoop、Spark与Flink
大数据·hadoop·spark