spark view永久保存 + paimon对应的view

环境

spark-sql是 spark 3.2版本

// spark集群是3.5版本

paimon 1.2

启动命令

sudo -i spark-sql \

--master local[*] \

--conf spark.sql.catalogImplementation=hive \

--conf spark.driver.memory=4g \

--conf spark.executor.memory=5g \

--conf spark.executor.cores=2 \

--conf spark.executor.instances=2 \

--jars /opt/resource/paimon/paimon-spark-3.2-1.2.0.jar \

--conf spark.sql.catalog.paimon=org.apache.paimon.spark.SparkCatalog \

--conf spark.sql.catalog.paimon.warehouse=s3a://aaaaaaa/paimon_lc/ \

--conf spark.sql.extensions=org.apache.paimon.spark.extensions.PaimonSparkSessionExtensions \

--conf spark.sql.cli.print.header=true

永久保存只要启动配置即可

--conf spark.sql.catalogImplementation=hive

异常现象

create view v1 as select * from paimon.db1.table1 limit 1; //这里在spark_catalog中新建了一个视图,指向paimon表.

但是重新进入spark-sql后,直接查询v1视图会报错:

When using Paimon, it is necessary to configure spark.sql.extensions and ensure that it includes org.apache.paimon.spark.extensions.PaimonSparkSessionExtensions. You can disable this check by configuring spark.paimon.requiredSparkConfsCheck.enabled to false, but it is strongly discouraged to do so.

但是如果use paimon; use spark_catalog; 来回切换下,查询视图v1就没问题.

原因未知

相关推荐
风落无尘39 分钟前
《智能重生:从垃圾堆到AI工程师》——第二章 概率与生存
大数据·人工智能
档案宝档案管理1 小时前
无缝对接财务软件,实现会计档案全流程自动化流转
大数据
juniperhan1 小时前
Flink 系列第21篇:Flink SQL 函数与 UDF 全解读:类型推导、开发要点与 Module 扩展
java·大数据·数据仓库·分布式·sql·flink
科研前沿1 小时前
2026 数字孪生前沿科技:全景迭代报告 —— 镜像视界生成式孪生(Generative DT)技术白皮书
大数据·人工智能·科技·算法·音视频·空间计算
Elastic 中国社区官方博客2 小时前
Elastic-caveman : 在不损失 Elastic 最佳效果的情况下,将 AI 响应 tokens 减少64%
大数据·运维·数据库·人工智能·elasticsearch·搜索引擎·全文检索
互联网推荐官2 小时前
上海软件定制开发全流程拆解:需求分析、技术选型与交付管理的工程实践
大数据·数据库·需求分析
samFuB2 小时前
【数据集】分省农林牧渔总产值、农业总产值数据(2007-2024年)
大数据
云天AI实战派3 小时前
AI 智能体问题排查指南:ChatGPT、API 调用到 Agent 上线失灵的全流程修复手册
大数据·人工智能·python·chatgpt·aigc
m0_466525294 小时前
酷特AGI:从“自家试验田”到“全球输出”
大数据·人工智能·agi
市象4 小时前
AI带给TCL空调的头部假想
大数据·人工智能