Apache Spark 2.4与hadoop 3.2环境的兼容性

问题描述

我们正在尝试在hadoop 3.2上运行spark2.4.x。

但是我们注意到databricks仅具有针对spark2.4.x的hadoop2.7 / 2.6的预构建版本。

这是来自官方databricks网站的下载页面链接https://spark.apache.org/downloads.html

所以我们想知道如果我们强制将spark2.4运行在hadoop3.2上是否会存在潜在的问题。

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)