Hive的数据导出

数据导出的分类:

  1. 从hive表中导出本地文件系统中(目录、文件)

  2. 从hive表中导出hdfs文件系统中

  3. hive表中导出到其它hive表中

1)导出数据到本地目录

复制代码
insert overwrite local directory '/root/out/00' select * from t_user;

这个00不是文件名,而是文件夹的名字,没有可以自动创建

2)导出到hdfs的目录下

复制代码
insert overwrite directory '/root/out/00' select * from t_user;

假如你导出的数据想要一个分隔符,比如 逗号

复制代码
insert overwrite directory '/root/out/00' 
row format delimited fields terminated by ','
select * from t_user;

3)直接将结果导出到本地文件中

复制代码
hive -e "sql语句"   不需要进入hive,直接执行hive的语句
hive -e "select * from  yhdb.t_user" >> /root/out/a.txt
hive -e "use yhdb;select * from  t_user" >> /root/out/a.txt

制表符就是 Tab 键,Tab 键就是 \t

相关推荐
武子康1 小时前
大数据-101 Spark Streaming 有状态转换详解:窗口操作与状态跟踪实战 附多案例代码
大数据·后端·spark
expect7g2 小时前
COW、MOR、MOW
大数据·数据库·后端
武子康18 小时前
大数据-98 Spark 从 DStream 到 Structured Streaming:Spark 实时计算的演进
大数据·后端·spark
阿里云大数据AI技术18 小时前
2025云栖大会·大数据AI参会攻略请查收!
大数据·人工智能
代码匠心20 小时前
从零开始学Flink:数据源
java·大数据·后端·flink
Lx3521 天前
复杂MapReduce作业设计:多阶段处理的最佳实践
大数据·hadoop
武子康1 天前
大数据-100 Spark DStream 转换操作全面总结:map、reduceByKey 到 transform 的实战案例
大数据·后端·spark
expect7g1 天前
Flink KeySelector
大数据·后端·flink
阿里云大数据AI技术2 天前
StarRocks 助力数禾科技构建实时数仓:从数据孤岛到智能决策
大数据
Lx3522 天前
Hadoop数据处理优化:减少Shuffle阶段的性能损耗
大数据·hadoop