spark view永久保存 + paimon对应的view

环境

spark-sql是 spark 3.2版本

// spark集群是3.5版本

paimon 1.2

启动命令

sudo -i spark-sql \

--master local[*] \

--conf spark.sql.catalogImplementation=hive \

--conf spark.driver.memory=4g \

--conf spark.executor.memory=5g \

--conf spark.executor.cores=2 \

--conf spark.executor.instances=2 \

--jars /opt/resource/paimon/paimon-spark-3.2-1.2.0.jar \

--conf spark.sql.catalog.paimon=org.apache.paimon.spark.SparkCatalog \

--conf spark.sql.catalog.paimon.warehouse=s3a://aaaaaaa/paimon_lc/ \

--conf spark.sql.extensions=org.apache.paimon.spark.extensions.PaimonSparkSessionExtensions \

--conf spark.sql.cli.print.header=true

永久保存只要启动配置即可

--conf spark.sql.catalogImplementation=hive

异常现象

create view v1 as select * from paimon.db1.table1 limit 1; //这里在spark_catalog中新建了一个视图,指向paimon表.

但是重新进入spark-sql后,直接查询v1视图会报错:

When using Paimon, it is necessary to configure spark.sql.extensions and ensure that it includes org.apache.paimon.spark.extensions.PaimonSparkSessionExtensions. You can disable this check by configuring spark.paimon.requiredSparkConfsCheck.enabled to false, but it is strongly discouraged to do so.

但是如果use paimon; use spark_catalog; 来回切换下,查询视图v1就没问题.

原因未知

相关推荐
_codemonster2 小时前
分布式深度学习训练框架Horovod
人工智能·分布式·深度学习
小北方城市网2 小时前
Redis 缓存设计与避坑实战:解决穿透 / 击穿 / 雪崩
java·大数据·数据库·redis·python·elasticsearch·缓存
天远云服2 小时前
Node.js实战:天远车辆出险查询API接口调用流程、代码接入与场景应用
大数据·node.js
福客AI智能客服2 小时前
信任驱动:客服AI系统与智能AI客服重构电商服务价值
大数据·人工智能·机器人
郑州光合科技余经理2 小时前
O2O上门预约小程序:全栈解决方案
java·大数据·开发语言·人工智能·小程序·uni-app·php
dongpengli2 小时前
2026年iPaas系统集成平台综合分析及选型参考
大数据·运维·人工智能·自动化办公·ipaas·企业系统集成
新诺韦尔API2 小时前
车架号查询接口对接全流程详解
大数据·开发语言·python·api
金融小师妹2 小时前
基于AI多模态分析的日本黄金储备60%跃升研究:外汇结构重构与资产价格联动机制解构
大数据·数据结构·人工智能·深度学习
CHrisFC2 小时前
江苏硕晟 LIMS 系统:湖泊环保水务治理的智慧引擎
大数据·人工智能