spark view永久保存 + paimon对应的view

环境

spark-sql是 spark 3.2版本

// spark集群是3.5版本

paimon 1.2

启动命令

sudo -i spark-sql \

--master local[*] \

--conf spark.sql.catalogImplementation=hive \

--conf spark.driver.memory=4g \

--conf spark.executor.memory=5g \

--conf spark.executor.cores=2 \

--conf spark.executor.instances=2 \

--jars /opt/resource/paimon/paimon-spark-3.2-1.2.0.jar \

--conf spark.sql.catalog.paimon=org.apache.paimon.spark.SparkCatalog \

--conf spark.sql.catalog.paimon.warehouse=s3a://aaaaaaa/paimon_lc/ \

--conf spark.sql.extensions=org.apache.paimon.spark.extensions.PaimonSparkSessionExtensions \

--conf spark.sql.cli.print.header=true

永久保存只要启动配置即可

--conf spark.sql.catalogImplementation=hive

异常现象

create view v1 as select * from paimon.db1.table1 limit 1; //这里在spark_catalog中新建了一个视图,指向paimon表.

但是重新进入spark-sql后,直接查询v1视图会报错:

When using Paimon, it is necessary to configure spark.sql.extensions and ensure that it includes org.apache.paimon.spark.extensions.PaimonSparkSessionExtensions. You can disable this check by configuring spark.paimon.requiredSparkConfsCheck.enabled to false, but it is strongly discouraged to do so.

但是如果use paimon; use spark_catalog; 来回切换下,查询视图v1就没问题.

原因未知

相关推荐
SuniaWang14 分钟前
《Spring AI + 大模型全栈实战》学习手册系列· 专题二:《Milvus 向量数据库:从零开始搭建 RAG 系统的核心组件》
java·人工智能·分布式·后端·spring·架构·typescript
Hui Baby16 分钟前
TIDB分布式数据库提交设想
数据库·分布式·tidb
无忧智库21 分钟前
破局与重构:大型企业级数字化业务运营平台的深度解构与演进之路(WORD)
大数据·架构
跨境卫士—小依22 分钟前
标题与卖点不聚焦如何重构核心卖点逻辑
大数据·人工智能·跨境电商·亚马逊·营销策略
H_老邪1 小时前
Elasticsearch 本地安装配置
大数据·elasticsearch·搜索引擎
⑩-1 小时前
RabbitMQ 架构和工作原理?RabbitMQ 延迟队列如何实现?
java·分布式·架构·rabbitmq
国冶机电安装1 小时前
分布式控制系统(DCS)安装:从方案设计到投运验收的完整指南
分布式
新诺韦尔API1 小时前
手机号携号转网接口对接常见问题一览
大数据·api
企业培训大师1 小时前
深度拆解智能防作弊系统:从技术底层到场景落地
大数据