我试图使用日期作为分区键在Amazon S3镶木地板文件夹中保存DataFrame . 我每天都在加载数据 .
我第一次保存它时看到分区文件夹(即“txDate = 20160714”) .
当我处理下一个文件时,它们都转到"txDate=HIVE_DEFAULT_PARTITION":see parquet Hive partitions
txDate是int
我正在使用Databricks平台,Apache Spark 1.6.2和Hadoop 2 .
我的代码是Python(Pyspark)
# initial save
df_newTx.write.partitionBy(['txDate']).format('parquet').mode('append').save("/mnt/dm.Inv/f_Tx.parquet")
# incremental save
df_tx_all.write.partitionBy(['txDate']).format('parquet').mode('append').save("/mnt/dm.Inv/f_Tx.parquet")