问题描述
将我的表返回到 sql 池中。但是,每当我进行更改并尝试覆盖表时,我都做不到。我总是需要创建一个新表。 有什么办法可以覆盖现有的表: 代码如下:
%%spark
val scala_df = spark.sqlContext.sql ("select * from result_pdf")
scala_df.write.synapsesql("yogesh.dbo.result2_pdf",Constants.INTERNAL)
Error : java.sql.sqlException: com.microsoft.sqlserver.jdbc.sqlServerException: There is already an object named 'result2_pdf' in the database.
解决方法
写入 API 在专用 SQL 池中创建表,然后调用 Polybase 加载数据。
该表不得存在于专用 SQL 池中,否则将返回一个错误,指出“There is already an object named...
”