在 spark-sql / spark-shell / hive / beeline 中粘贴 sql、程序脚本时的常见错误

一个很小的问题,简单记录一下。有时候我们会粘贴一段已经成功运行过的SQL或程序脚本,但是在spark-sql / spark-shell / hive / beeline 中执行时可能会报这样的错误:

bash 复制代码
hive> CREATE EXTERNAL TABLE IF NOT EXISTS ORDERS(
    > Display all 641 possibilities? (y or n)
!                              !=                             $ELEM$                         $KEY$
... ... ...
... ... ...

输出的Display all 641 possibilities? (y or n)信息在暗示我们:脚本中有tab建,这会让某些shell终端解析为"寻求代码提示",所以才会给出Display all 641 possibilities? (y or n)这样的信息。我们可以在文本编辑器,例如notepad++,中选择"视图" -> "显示符号" -> "显示空格与制表符" 来确认是否在脚本中含有tab字符。

相应的解决方法是:使用空格(4个或2个)查找替换tab字符即可。

PS. 可能也是因为这种原因,现在IDE(例如IntelliJ)已经不使用Tab键作为代码缩进了,而是改用4个或2个空格符去替换,这样可以规避上述问题。

相关推荐
Timer_Cooker16 小时前
Hive Sum(null)编译报错分析
数据仓库·hive·hadoop
JiaHao汤18 小时前
一文掌握 SQL:数据定义、操作与查询完整教程
数据库·sql
l1t18 小时前
利用DeepSeek和qwen 3.5辅助生成SQL优化方法幻灯片视频
数据库·sql·音视频
l1t1 天前
duckdb polyglot 插件的使用
sql·duckdb
升职佳兴1 天前
SQL 窗口函数入门教程基础篇
数据库·sql
麦聪聊数据2 天前
基于 Web SQL 与 SQL2API 的数据治理架构实践
运维·sql·架构
山峰哥2 天前
SQL调优实战:从索引失效到性能飙升的破局之道
服务器·数据库·sql·性能优化·编辑器·深度优先
SQL必知必会2 天前
使用 SQL 进行队列分析
数据库·sql
鸿乃江边鸟2 天前
Spark Datafusion Comet 向量化Rust Native--Native算子指标如何传递到Spark UI上展示
rust·spark·native