从 neo4j 读取到 spark 时出错

问题描述

我按照 (https://neo4j.com/developer/spark/quickstart/) 中的步骤操作并使用以下包:

$SPARK_HOME/bin/spark-shell --packages neo4j-contrib:neo4j-connector-apache-spark_2.12:4.0.1_for_spark_3

现在,在 spark shell 中,当我尝试执行此操作时(在同一站点中提到):

import org.apache.spark.sql.{SaveMode,SparkSession}

val spark = SparkSession.builder().getorCreate()

val df = spark.read.format("org.neo4j.spark.DataSource")
.option("url","bolt://localhost:7687")
.option("authentication.basic.username","neo4j")
.option("authentication.basic.password","neo4j")
.option("labels","Person")
.load()

出现以下错误

java.lang.NoClassDefFoundError:org/apache/spark/sql/sources/v2/ReadSupport

我该怎么做才能解决问题?

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)