问题描述
我无法在Jupyter笔记本中的导入下运行。
findspark.init('home/ubuntu/spark-3.0.0-bin-hadoop3.2')
出现以下错误:
---------------------------------------------------------------------------
~/.local/lib/python3.6/site-packages/findspark.py in init(spark_home,python_path,edit_rc,edit_profile)
144 except IndexError:
145 raise Exception(
--> 146 "Unable to find py4j,your SPARK_HOME may not be configured correctly"
147 )
148 sys.path[:0] = [spark_python,py4j]
Exception: Unable to find py4j,your SPARK_HOME may not be configured correctly
我确实安装了 py4j ,并且还尝试将以下几行添加到〜/ .bashrc
export SPARK_HOME=/home/ubuntu/spark-3.0.0-bin-hadoop3.2
export PYTHONPATH=$SPARK_HOME/python/:$PYTHONPATH
export PYTHONPATH=$SPARK_HOME/python/lib/py4j-0.10.9-src.zip:$PYTHONPATH
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)