flink/spark/hive 使用paimon

Flink使用paimon

/usr/dif/7.1.0-0/flink/bin/sql-client.sh

CREATE CATALOG paimon_hive_catalog

WITH ( 'type'='paimon',

'metastore' = 'hive',

'hive-conf-dir'='/etc/hive/conf/',

'hadoop-conf-dir' = '/etc/hive/conf');

use catalog paimon_hive_catalog;

use ${DB};

XXXXXXXXXXXXXXXXXXXXXXXXXX

Spark on Hive(kyuubi)使用paimon

/usr/dif/7.1.0-0/kyuubi/bin/beeline -u 'jdbc:hive2://XXX:2181,XXX:2181,XXX:2181/;serviceDiscoveryMode=zooKeeper;zooKeeperNamespace=kyuubi;principal=ocdp/_HOST@XXX.COM;#spark.sql.catalog.paimon=org.apache.paimon.spark.SparkCatalog;spark.sql.catalog.spark_catalog=org.apache.paimon.spark.SparkGenericCatalog;spark.sql.catalog.paimon.warehouse=hdfs://XXX/apps/hive/warehouse;spark.sql.extensions=org.apache.paimon.spark.extensions.PaimonSparkSessionExtensions;spark.yarn.queue=XXX;spark.executor.cores=4;spark.driver.cores=2;spark.executor.instances=10;spark.executor.memory=8g'

XXXXXXXXXXXXXXXXXXXXXXXXXX

Spark Jar使用paimon

/usr/dif/7.1.0-0/spark/bin/spark-submit

--master yarn

--deploy-mode client

--driver-memory 1G

--num-executors 2

--executor-cores 2

--executor-memory 4G

--name "SparkODSJob"

--class com.goertek.it.main.gmes.OdsGMesHiveMain

--conf spark.sql.catalog.spark_catalog=org.apache.paimon.spark.SparkGenericCatalog

--conf spark.sql.catalog.paimon=org.apache.paimon.spark.SparkCatalog

--conf spark.sql.catalog.paimon.warehouse=hdfs://goertekwf/apps/hive/warehouse

--conf spark.sql.catalog.paimon.metastore=hive

--conf spark.sql.extensions=org.apache.paimon.spark.extensions.PaimonSparkSessionExtensions

--conf spark.yarn.principal=wf_bpit_mes@XXX.COM

--conf spark.yarn.keytab=/data01/dataos/apps/keytabs/wf_bpit_mes.keytab

--conf 'spark.driver.extraJavaOptions=-Djava.security.krb5.conf=/etc/krb5.conf'

--conf 'spark.driverEnv.KRB5_CONFIG=/etc/krb5.conf'

hdfs:///spark_jar/spark3-1.0-SNAPSHOT.jar

"test" "152" "165" "${batchNo}"

相关推荐
念陌曦9 小时前
Flink总结
大数据·flink
D愿你归来仍是少年2 天前
Apache Spark 第六章:执行计划与 DAG 调度
大数据·spark
岁岁种桃花儿2 天前
Flink从入门到上天系列第二十五篇:Flink和Kafka连接时的精准一次性
大数据·flink·kafka
Hello.Reader2 天前
PySpark DataFrame 快速入门创建、查询、分组、读写、SQL 实战一篇讲透
数据库·sql·spark
D愿你归来仍是少年2 天前
Apache Spark 第五章:Spark SQL 与 DataFrame
大数据·spark
tsyjjOvO2 天前
SpringMVC 从入门到精通
数据仓库·hive·hadoop
IvanCodes3 天前
Hive IDE连接及UDF实战
ide·hive·hadoop
岁岁种桃花儿3 天前
Flink从入门到上天系列第二十四篇:Flink中的保存点
大数据·flink
yumgpkpm3 天前
华为昇腾910B 开源软件GPUStack的介绍(Cloudera CDH、CDP)
人工智能·hadoop·elasticsearch·flink·kafka·企业微信·big data
lifewange4 天前
Hive数据库
数据库·hive·hadoop