如何在 conda 环境中设置 pyspark?

问题描述

这是我运行的所有命令(以相同的顺序):

conda create --name python_db python
conda activate python_db
conda install python
conda install pyspark

然后当我运行 pyspark 时,出现以下错误

Missing Python executable 'python3',defaulting to 'C:\Users\user\Anaconda3\envs\python_db\Scripts\..' 
for SPARK_HOME environment variable. Please install Python or specify the correct Python executable in 
PYSPARK_DRIVER_PYTHON or PYSPARK_PYTHON environment variable to detect SPARK_HOME safely.

我该如何解决问题?

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)