flink/spark/hive 使用paimon

Flink使用paimon

/usr/dif/7.1.0-0/flink/bin/sql-client.sh

CREATE CATALOG paimon_hive_catalog

WITH ( 'type'='paimon',

'metastore' = 'hive',

'hive-conf-dir'='/etc/hive/conf/',

'hadoop-conf-dir' = '/etc/hive/conf');

use catalog paimon_hive_catalog;

use ${DB};

XXXXXXXXXXXXXXXXXXXXXXXXXX

Spark on Hive(kyuubi)使用paimon

/usr/dif/7.1.0-0/kyuubi/bin/beeline -u 'jdbc:hive2://XXX:2181,XXX:2181,XXX:2181/;serviceDiscoveryMode=zooKeeper;zooKeeperNamespace=kyuubi;principal=ocdp/_HOST@XXX.COM;#spark.sql.catalog.paimon=org.apache.paimon.spark.SparkCatalog;spark.sql.catalog.spark_catalog=org.apache.paimon.spark.SparkGenericCatalog;spark.sql.catalog.paimon.warehouse=hdfs://XXX/apps/hive/warehouse;spark.sql.extensions=org.apache.paimon.spark.extensions.PaimonSparkSessionExtensions;spark.yarn.queue=XXX;spark.executor.cores=4;spark.driver.cores=2;spark.executor.instances=10;spark.executor.memory=8g'

XXXXXXXXXXXXXXXXXXXXXXXXXX

Spark Jar使用paimon

/usr/dif/7.1.0-0/spark/bin/spark-submit

--master yarn

--deploy-mode client

--driver-memory 1G

--num-executors 2

--executor-cores 2

--executor-memory 4G

--name "SparkODSJob"

--class com.goertek.it.main.gmes.OdsGMesHiveMain

--conf spark.sql.catalog.spark_catalog=org.apache.paimon.spark.SparkGenericCatalog

--conf spark.sql.catalog.paimon=org.apache.paimon.spark.SparkCatalog

--conf spark.sql.catalog.paimon.warehouse=hdfs://goertekwf/apps/hive/warehouse

--conf spark.sql.catalog.paimon.metastore=hive

--conf spark.sql.extensions=org.apache.paimon.spark.extensions.PaimonSparkSessionExtensions

--conf spark.yarn.principal=wf_bpit_mes@XXX.COM

--conf spark.yarn.keytab=/data01/dataos/apps/keytabs/wf_bpit_mes.keytab

--conf 'spark.driver.extraJavaOptions=-Djava.security.krb5.conf=/etc/krb5.conf'

--conf 'spark.driverEnv.KRB5_CONFIG=/etc/krb5.conf'

hdfs:///spark_jar/spark3-1.0-SNAPSHOT.jar

"test" "152" "165" "${batchNo}"

相关推荐
howard20051 小时前
5.4 Hive删除数据实战
hive·删除数据
无级程序员1 小时前
datasophon安装hive3.1.3手记
大数据·hive
lhyzws3 小时前
CENTOS上的网络安全工具(二十九)GPU助力SPARK
linux·spark·gpu算力
Q26433650239 小时前
【有源码】spark与hadoop-情感挖掘+画像建模的携程酒店评价数据分析可视化系统-基于机器学习的携程酒店评价情感分析与竞争态势可视化
大数据·hadoop·python·机器学习·数据分析·spark·毕业设计
2021_fc11 小时前
Flink批处理实战:使用DataSet API进行高效的批处理
大数据·flink
v***56518 小时前
SpringBoot集成Flink-CDC,实现对数据库数据的监听
数据库·spring boot·flink
Hello.Reader19 小时前
Flink CDC 用 PolarDB-X CDC 实时同步数据到 Elasticsearch
大数据·elasticsearch·flink
howard20051 天前
5.1 Hive加载数据实战
hive·数据加载
智海观潮1 天前
Hive经典面试题之连续登录、行转列和列转行
数据仓库·hive·hadoop