在 spark-sql / spark-shell / hive / beeline 中粘贴 sql、程序脚本时的常见错误

一个很小的问题,简单记录一下。有时候我们会粘贴一段已经成功运行过的SQL或程序脚本,但是在spark-sql / spark-shell / hive / beeline 中执行时可能会报这样的错误:

bash 复制代码
hive> CREATE EXTERNAL TABLE IF NOT EXISTS ORDERS(
    > Display all 641 possibilities? (y or n)
!                              !=                             $ELEM$                         $KEY$
... ... ...
... ... ...

输出的Display all 641 possibilities? (y or n)信息在暗示我们:脚本中有tab建,这会让某些shell终端解析为"寻求代码提示",所以才会给出Display all 641 possibilities? (y or n)这样的信息。我们可以在文本编辑器,例如notepad++,中选择"视图" -> "显示符号" -> "显示空格与制表符" 来确认是否在脚本中含有tab字符。

相应的解决方法是:使用空格(4个或2个)查找替换tab字符即可。

PS. 可能也是因为这种原因,现在IDE(例如IntelliJ)已经不使用Tab键作为代码缩进了,而是改用4个或2个空格符去替换,这样可以规避上述问题。

相关推荐
阿里云大数据AI技术2 天前
用 SQL 调大模型?Hologres + 百炼,让数据开发直接“对话”AI
sql·llm
得物技术2 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
肌肉娃子6 天前
20260227.spark.Spark 性能刺客:千万别在 for 循环里写 withColumn
spark
B站计算机毕业设计超人7 天前
计算机毕业设计Django+Vue.js音乐推荐系统 音乐可视化 大数据毕业设计 (源码+文档+PPT+讲解)
大数据·vue.js·hadoop·python·spark·django·课程设计
tryCbest7 天前
数据库SQL学习
数据库·sql
十月南城7 天前
数据湖技术对比——Iceberg、Hudi、Delta的表格格式与维护策略
大数据·数据库·数据仓库·hive·hadoop·spark
王九思7 天前
Hive Thrift Server 介绍
数据仓库·hive·hadoop
cowboy2587 天前
mysql5.7及以下版本查询所有后代值(包括本身)
数据库·sql
努力的lpp7 天前
SQL 报错注入
数据库·sql·web安全·网络安全·sql注入
麦聪聊数据7 天前
统一 Web SQL 平台如何收编企业内部的“野生数据看板”?
数据库·sql·低代码·微服务·架构