问题描述
我正在Databricks内部工作,试图使用sparklyr函数spark_write_jdbc将数据帧写入sql Server表。服务器名称/驱动程序等正确无误,并且可以正常工作,因为我已在代码前面成功使用了sparklyr :: spark_read_jdbc()。
根据文档(here),spark_write_jdbc应该接受一个Spark数据框。
我使用SparkR :: createDataFrame()将我正在使用的数据帧转换为Spark数据帧。
以下是相关代码:
events_long_test <- SparkR::createDataFrame(events_long,schema = NULL,samplingRatio = 1,numPartitions = NULL)
sparklyr::spark_write_jdbc(events_long_test,name ="who_status_long_test",options = list(url = url,user = user,driver = "com.microsoft.sqlserver.jdbc.sqlServerDriver",password = pw,dbtable = "who_status_long_test"))
但是,当我运行它时,它给了我以下错误:
UseMethod(“ spark_write_jdbc”)中的错误:UseMethod(“ spark_write_jdbc”)中的错误: 没有将适用于“ spark_write_jdbc”的适用方法应用于“ SparkDataFrame”类的对象
我到处搜索,找不到其他人询问此错误。当文档说可以使用此功能时,为什么会说此功能不能与Spark Dataframe一起使用?
感谢您的帮助。
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)