Jar 类路径依赖版本被 Spark 系统类路径 jar 覆盖,导致 NoSuchMethodError

问题描述

我有一个Guava v16 作为依赖项的 Jar,当我们将 Jar 部署到 Spark 集群 (v2.3.2) 时,Guava v16 得到 替换为 Guava v28,这会导致诸如 NoSuchMethodError 异常之类的问题。 有谁知道在这种情况下如何强制 spark 使用 v16?

Note: We have tried by changing the build with options such as compile,runtime,runtimeClasspath,strict version,resolutionStrategy also by submitting the Guava v19 as a jar to spark while running original jar file

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)