问题描述
我有一个以 Guava v16 作为依赖项的 Jar,当我们将 Jar 部署到 Spark 集群 (v2.3.2) 时,Guava v16 得到 替换为 Guava v28,这会导致诸如 NoSuchMethodError 异常之类的问题。 有谁知道在这种情况下如何强制 spark 使用 v16?
Note: We have tried by changing the build with options such as compile,runtime,runtimeClasspath,strict version,resolutionStrategy also by submitting the Guava v19 as a jar to spark while running original jar file
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)