问题描述
我们正在尝试在hadoop 3.2上运行spark2.4.x。
但是我们注意到databricks仅具有针对spark2.4.x的hadoop2.7 / 2.6的预构建版本。
这是来自官方databricks网站的下载页面链接:https://spark.apache.org/downloads.html
所以我们想知道如果我们强制将spark2.4运行在hadoop3.2上是否会存在潜在的问题。
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)