在Azure Databricks中使用Spark_apply

问题描述

我正在使用BAS包在Azure数据块中构建模型。我已经在群集中安装了该软件包,并且想简单地使用Azure Databricks SparkR训练模型。

 spark_apply(r_data1,function(e) (bas.lm(formula = at_areabuilding ~ ziP*loc_st_prov_cd,data = r_data1,prior = "ZS-null",modelprior = uniform(),method = "MCMC",force.heredity = TRUE,e)))

代码给出以下错误

Error : org.apache.spark.SparkException: Job aborted due to stage failure: Task 0 in stage 76.0 Failed 4 times,most recent failure: Lost task 0.3 in stage 76.0 (TID 254,10.247.190.5,executor 0): java.lang.Exception: sparklyr worker rscript failure with status 255,check worker logs for details.
    at sparklyr.Rscript.init(rscript.scala:83)
    at sparklyr.WorkerApply$$anon$2.run(workerapply.scala:125)

请帮助我使用Spark_apply

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)

相关问答

Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其...
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。...
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbc...