Spark jdbc 数据集将浮点列数据显示为 Oracle 的无穷大

问题描述

我正在尝试使用 spark JDBC 读取 oracle 浮点列数据,但它为同一列提供了 无穷大 值。下面是示例代码

val empDF = spark.read 
    .format("jdbc") 
    .option("url","jdbc:oracle:thin:@hostname:portnumber/servicename") 
    .option("query","select col_float,col_float_negative from employee") 
    .option("user","db_user_name") 
    .option("password","password") 
    .option("driver","oracle.jdbc.driver.OracleDriver") 
    .load()

empDF.show()

输出

enter image description here

我认为 spark 在内部以 getFloat() 的形式获取浮点列,因此这个问题即将到来。有没有办法解决这个问题。这真的很有帮助。 谢谢。

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)

相关问答

Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其...
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。...
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbc...