Nats Spark 连接器:错误:无法加载类

问题描述

下午好!

我是 nats/spark 方面的新手,我已经被困了几天。任何提示都会很棒。 我正在使用 https://github.com/Logimethods/nats-connector-spark-scala 连接器从 nats 服务器读取消息。 我正在使用 Intellij 和 SBT 来运行它并且它工作正常。相反,当我尝试构建 de jar 文件时失败:

enter image description here

我已经检查过 jar 文件是否有 MANIFEST.MF:

enter image description here

我想我可能遗漏了一些依赖或不兼容问题,所以我会附上我的 buildd.sbt 文件

name := "brokerNatssparkSBT"
version := "0.1"
scalaVersion := "2.11.12"

resolvers += "Sonatype OSS Snapshots" at "https://oss.sonatype.org/content/repositories/snapshots"
resolvers += "Sonatype OSS Release" at "https://oss.sonatype.org/content/groups/public/"

libraryDependencies += "com.logimethods" % "nats-connector-spark-scala_2.11" % "1.0.0"

val sparkVersion = "2.3.1"

libraryDependencies ++= Seq(
  "org.apache.spark" %% "spark-core" % sparkVersion,"org.apache.spark" %% "spark-streaming" % sparkVersion
)

使用 JDK 1.8,SBT 根据 build.properties 1.5.4。

提前致谢!

解决方法

经过几天的挣扎,最终我做到了,感谢这个article。包含 sbt-assembly 插件并用它构建 jar 文件,我可以正确构建 jar