首页 文章

Spark SQL - 从oracle导入时,oracle日期数据类型到timestamp(java.sql)的转换不正确

提问于
浏览
0

我使用Spark SQL从Oracle导入数据,如下所示 -

Class.forName("oracle.jdbc.driver.OracleDriver")  
var info : java.util.Properties = new java.util.Properties()  
info.put("user", user)  
info.put("password", password) 
val jdbcDF = spark.read.jdbc(jdbcURL, tableFullName, info)

表格架构:

SERVICE_DATE - 日期

导入时Spark会将具有“date”数据类型的列转换为“java.sql.timestamp”数据类型 . 在此转换期间,我面临着夏令时之后的日期问题 .

For eg:

oracle:SERVICE_DATE = 2008-03-09 02:49:00.0 [日期] spark:SERVICE_DATE = 2008-03-09 03:49:00.0 [TIMESTAMP]

这个问题是将oracle date转换为JDBC时间戳吗?

1 回答

相关问题