我一直在stackoverflow和其他地方搜索我现在看到的错误并尝试了一些“答案”,没有人在这里工作(我会继续搜索并在这里更新):
我安装了新的Ubuntu和Anaconda3,安装了Spark 2:
Anaconda3:/ home / rxie / anaconda Spark2:/ home / rxie / Downloads / spark
我能够启动Jupyter Notebook,但无法创建SparkSession:
from pyspark.conf import SparkConf
来自pyspark.conf的()----> 1中的ModuleNotFoundError Traceback(最近一次调用last)导入SparkConf ModuleNotFoundError:没有名为'pyspark'的模块
这是我在.bashrc中的环境:
export JAVA_HOME=/usr/lib/jvm/java-8-oracle
export SPARK_HOME=/home/rxie/spark/
export SBT_HOME=/usr/share/sbt/bin/sbt-launch.jar
export SCALA_HOME=/usr/local/src/scala/scala-2.10.4
export PATH=$SCALA_HOME/bin:$PATH
export PATH=$SPARK_HOME/bin:$PATH
export PATH=$PATH:$SBT_HOME/bin:$SPARK_HOME/bin
# added by Anaconda3 installer
export PATH="/home/rxie/anaconda3/bin:$PATH"
export PATH=$SPARK_HOME/bin:$PATH
export PYSPARK_DRIVER_PYTHON=jupyter
export PYSPARK_DRIVER_PYTHON_OPTS='notebook'
在jupyter笔记本中导入SparkConf有什么问题?
非常感谢,如果有人能用任何光线照亮我,非常感谢你 .
3 回答
随着最终的PATH如下,笔记本开始按预期工作:
和:
出于某种原因,当与Anaconda一起安装时,jupyter无法正常工作 . 我是同样的问题,我解决了它在虚拟环境中重新安装jupyter包 .
在您的虚拟环境中执行:
如果你在python中,则需要初始化你的spark会话
上面是我的代码,您可能需要在spark安装中找到相应的库并替换上面的路径 .
如果幸运的话,你会看到类似的东西