背景:
在 python spark 任务中,调用
lua
df.repartition("a","b","c").write.format("parquet").mode(saveMode).partitionBy("date").saveAsTable("table_name")
出现报错,提示:
swift
org.apache.spark.sql.AnalysisException: The format of the existing table xxx is `HiveFileFormat`. It doesn't match the specified format `ParquetFileFormat`.
提示我们写入 hive 的 fileformat 不对。
这个报错在 spark 1.x 版本不会报错,在 spark 2.x 版本开始出现。
解决方案
- 如果我们的 hive 表不是分区表。将format("parquet")改成 format("hive")即可。
将format设置为Hive以后,无论hive建表的时候,使用的fileformat使用的是哪一种,都没有关系。
- 如果我们的 hive 表是分区表,可以先将数据存到一个临时表,再调用 spark.sql 插入数据。
python
df = spark.createDataFrame(data, ["a", "b", "c", "ctime"])
df.createOrReplaceTempView("temp_view")
spark.sql("""
INSERT INTO $hive_table_name PARTITION (date = '{}')
select * from temp_view
""".format(date))