在 spark-sql / spark-shell / hive / beeline 中粘贴 sql、程序脚本时的常见错误

一个很小的问题,简单记录一下。有时候我们会粘贴一段已经成功运行过的SQL或程序脚本,但是在spark-sql / spark-shell / hive / beeline 中执行时可能会报这样的错误:

bash 复制代码
hive> CREATE EXTERNAL TABLE IF NOT EXISTS ORDERS(
    > Display all 641 possibilities? (y or n)
!                              !=                             $ELEM$                         $KEY$
... ... ...
... ... ...

输出的Display all 641 possibilities? (y or n)信息在暗示我们:脚本中有tab建,这会让某些shell终端解析为"寻求代码提示",所以才会给出Display all 641 possibilities? (y or n)这样的信息。我们可以在文本编辑器,例如notepad++,中选择"视图" -> "显示符号" -> "显示空格与制表符" 来确认是否在脚本中含有tab字符。

相应的解决方法是:使用空格(4个或2个)查找替换tab字符即可。

PS. 可能也是因为这种原因,现在IDE(例如IntelliJ)已经不使用Tab键作为代码缩进了,而是改用4个或2个空格符去替换,这样可以规避上述问题。

相关推荐
聪明的墨菲特i23 分钟前
SQL进阶知识:四、索引优化
数据库·sql·mysql·database·索引·db2
悻运5 小时前
Spark论述及其作用
大数据·分布式·spark
曹弘毅5 小时前
doris/clickhouse常用sql
数据库·sql·clickhouse·doris
IvanCodes6 小时前
MySQL 锁机制
数据库·sql·mysql·oracle
痕5178 小时前
spark和Hadoop之间的对比和联系
大数据·hadoop·spark
不辉放弃8 小时前
MySQL存储过程
java·数据库·sql
宝耶9 小时前
实验一sql
数据库·sql
1momomo汉堡包9 小时前
spark和hadoop之间的对比和联系
大数据·hadoop·spark
心碎烤肠9 小时前
MySQL运算符
python·sql