sparklyr :: spark_write_jdbc不接受Spark数据帧吗?

问题描述

我正在Databricks内部工作,试图使用sparklyr函数spark_write_jdbc将数据帧写入sql Server表。服务器名称/驱动程序等正确无误,并且可以正常工作,因为我已在代码前面成功使用了sparklyr :: spark_read_jdbc()。

根据文档(here),spark_write_jdbc应该接受一个Spark数据框。

我使用SparkR :: createDataFrame()将我正在使用的数据帧转换为Spark数据帧。

以下是相关代码

events_long_test <- SparkR::createDataFrame(events_long,schema = NULL,samplingRatio = 1,numPartitions = NULL)


sparklyr::spark_write_jdbc(events_long_test,name ="who_status_long_test",options = list(url = url,user = user,driver = "com.microsoft.sqlserver.jdbc.sqlServerDriver",password = pw,dbtable = "who_status_long_test"))

但是,当我运行它时,它给了我以下错误

UseMethod(“ spark_write_jdbc”)中的错误:UseMethod(“ spark_write_jdbc”)中的错误: 没有将适用于“ spark_write_jdbc”的适用方法应用于“ SparkDataFrame”类的对象

我到处搜索,找不到其他人询问此错误。当文档说可以使用此功能时,为什么会说此功能不能与Spark Dataframe一起使用?

感谢您的帮助。

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)

相关问答

Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其...
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。...
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbc...