问题描述
我是Pyspark的新手。我正在尝试运行pyspark代码。我运行了一个名为“ time.py”的代码,因此pyspark无法立即运行。我收到以下错误。
Traceback (most recent call last):
File "/home/VAL_CODE/test.py",line 1,in <module>
from pyspark import SparkContext,HiveContext,SparkConf
File "/opt/cloudera/parcels/CDH-6.3.3-1.cdh6.3.3.p0.1796617/lib/spark/python/lib/pyspark.zip/pyspark/__init__.py",line 51,in <module>
File "/opt/cloudera/parcels/CDH-6.3.3-1.cdh6.3.3.p0.1796617/lib/spark/python/lib/pyspark.zip/pyspark/context.py",line 24,in <module>
File "/usr/lib64/python2.7/threading.py",line 14,in <module>
from time import time as _time,sleep as _sleep
File "/home/VAL_CODE/time.py",in <module>
ImportError: cannot import name SparkContext
20/08/13 19:04:16 INFO util.ShutdownHookManager: Shutdown hook called
20/08/13 19:04:16 INFO util.ShutdownHookManager: Deleting directory /tmp/spark-f104da1f-ba70-4c45-8a19-6ffc55b609aa
错误是脚本“ /usr/lib64/python2.7/threading.py”引用了我创建的本地脚本“ /home/VAL_CODE/time.py”。现在,我已经删除了“ /home/VAL_CODE/time.py”脚本。但是当我运行新代码“ /home/VAL_CODE/test.py”时,仍然会遇到问题。请帮助解决。
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)