在 spark-sql / spark-shell / hive / beeline 中粘贴 sql、程序脚本时的常见错误

一个很小的问题,简单记录一下。有时候我们会粘贴一段已经成功运行过的SQL或程序脚本,但是在spark-sql / spark-shell / hive / beeline 中执行时可能会报这样的错误:

bash 复制代码
hive> CREATE EXTERNAL TABLE IF NOT EXISTS ORDERS(
    > Display all 641 possibilities? (y or n)
!                              !=                             $ELEM$                         $KEY$
... ... ...
... ... ...

输出的Display all 641 possibilities? (y or n)信息在暗示我们:脚本中有tab建,这会让某些shell终端解析为"寻求代码提示",所以才会给出Display all 641 possibilities? (y or n)这样的信息。我们可以在文本编辑器,例如notepad++,中选择"视图" -> "显示符号" -> "显示空格与制表符" 来确认是否在脚本中含有tab字符。

相应的解决方法是:使用空格(4个或2个)查找替换tab字符即可。

PS. 可能也是因为这种原因,现在IDE(例如IntelliJ)已经不使用Tab键作为代码缩进了,而是改用4个或2个空格符去替换,这样可以规避上述问题。

相关推荐
小屁孩大帅-杨一凡2 小时前
在 Oracle 中,创建不同类型索引的 SQL 语法
数据库·sql·oracle
不吃饭的猪3 小时前
记一次spark在docker本地启动报错
大数据·docker·spark
Leo.yuan5 小时前
实时数据仓库是什么?数据仓库设计怎么做?
大数据·数据库·数据仓库·数据分析·spark
Lx3529 小时前
UNION ALL与UNION的性能差异及选择技巧
sql·mysql·oracle
£菜鸟也有梦10 小时前
从0到1,带你走进Flink的世界
大数据·hadoop·flink·spark
小伍_Five1 天前
Spark实战能力测评模拟题精析【模拟考】
java·大数据·spark·scala·intellij-idea
不吃饭的猪1 天前
记一次运行spark报错
大数据·分布式·spark
qq_463944861 天前
【Spark征服之路-2.1-安装部署Spark(一)】
大数据·分布式·spark
焚膏油以继晷,恒兀兀以穷年1 天前
mysql 悲观锁和乐观锁(—悲观锁)
数据库·sql·mysql·悲观锁