如何修复 python 上的 Neo4j-spark 连接器错误?

问题描述

我正在尝试连接spark和neo4j,我的目标是通过在python上使用spark从neo4j中提取数据,我已经在neo4j和python之间建立了连接

my spark version is 2.4.5
python version 3.7.9

我的代码在下面

from pyspark.sql import SparkSession

spark = SparkSession.builder.master("local[1]") \
  .appName("SparkByExamples.com") \
  .getorCreate()

spark.read.format("org.neo4j.spark.Data Source") \
  .option("URL","neo4j:Ip:7687") \
  .option("authentication.basic.username","neo4j") \
  .option("authentication.basic.password","") \
  .option("labels","Person:Customer:Confirmed") \
  .load()

但是当我想使用neo4j spark连接器时,虽然我安装了neo4j spark连接器、jars、spark等要求并检查了版本,但我仍然收到此错误

py4j.protocol.Py4JJavaError: An error occurred while calling o34.load.
: java.lang.classNotFoundException: Failed to find data source: org.neo4j.spark DataSource Please find packages a**strong text**t http://spark.apache.org/third-party-projects.html

实际上我找不到关于我的具体问题的足够文档

我很乐意为您提供帮助...

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)