问题描述
当我尝试初始化pyspark shell时,python似乎出现了一些问题,此错误是pyspark特有的,并且在初始化spark或sparkR shell时不会发生。
有人知道为什么为什么除了Python以外的其他API都会启动spark吗?对于我尚不清楚我是否需要使用Java配置某些内容。谢谢!下面是我的系统变量。
JAVA_HOME:C:\ jdk
HADOOP_HOME:C:\ winutils
SPARK_HOME:C:\ spark
Java版本1.8.0_261
火花版本3.0
操作系统:Windows 10 Pro
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)