spark view永久保存 + paimon对应的view

环境

spark-sql是 spark 3.2版本

// spark集群是3.5版本

paimon 1.2

启动命令

sudo -i spark-sql \

--master local[*] \

--conf spark.sql.catalogImplementation=hive \

--conf spark.driver.memory=4g \

--conf spark.executor.memory=5g \

--conf spark.executor.cores=2 \

--conf spark.executor.instances=2 \

--jars /opt/resource/paimon/paimon-spark-3.2-1.2.0.jar \

--conf spark.sql.catalog.paimon=org.apache.paimon.spark.SparkCatalog \

--conf spark.sql.catalog.paimon.warehouse=s3a://aaaaaaa/paimon_lc/ \

--conf spark.sql.extensions=org.apache.paimon.spark.extensions.PaimonSparkSessionExtensions \

--conf spark.sql.cli.print.header=true

永久保存只要启动配置即可

--conf spark.sql.catalogImplementation=hive

异常现象

create view v1 as select * from paimon.db1.table1 limit 1; //这里在spark_catalog中新建了一个视图,指向paimon表.

但是重新进入spark-sql后,直接查询v1视图会报错:

When using Paimon, it is necessary to configure spark.sql.extensions and ensure that it includes org.apache.paimon.spark.extensions.PaimonSparkSessionExtensions. You can disable this check by configuring spark.paimon.requiredSparkConfsCheck.enabled to false, but it is strongly discouraged to do so.

但是如果use paimon; use spark_catalog; 来回切换下,查询视图v1就没问题.

原因未知

相关推荐
忆~遂愿9 分钟前
CANN ATVOSS 算子库深度解析:基于 Ascend C 模板的 Vector 算子子程序化建模与融合优化机制
大数据·人工智能
惊讶的猫1 小时前
rabbitmq初步介绍
分布式·rabbitmq
小镇敲码人1 小时前
华为CANN框架中HCCL仓库的全面解析:分布式通信的引擎
分布式·华为
艾莉丝努力练剑1 小时前
【Linux:文件】Ext系列文件系统(初阶)
大数据·linux·运维·服务器·c++·人工智能·算法
User_芊芊君子2 小时前
【分布式训练】CANN SHMEM跨设备内存通信库:构建高效多机多卡训练的关键组件
分布式·深度学习·神经网络·wpf
酷酷的崽7982 小时前
CANN 开源生态解析(四):`cann-dist-train` —— 构建高效可扩展的分布式训练引擎
分布式·开源
lili-felicity2 小时前
CANN异步推理实战:从Stream管理到流水线优化
大数据·人工智能
2501_933670793 小时前
2026 高职大数据专业考什么证书对就业有帮助?
大数据
惊讶的猫3 小时前
AMQP 与 RabbitMQ 四大模型
分布式·rabbitmq
xiaobaibai1533 小时前
营销自动化终极形态:AdAgent 自主闭环工作流全解析
大数据·人工智能·自动化