我为pyspark设置了我的intelliJ项目 .

基本上我已经完成了一些步骤

1)已下载http://www-us.apache.org/dist/spark/spark-2.3.0/spark-2.3.0-bin-hadoop2.7.tgz . 然后我解压缩我的驱动器中的文件夹 C:\Spark

2)我打开了一个intelliJ项目并选择了SDK 3.65

3)我创建了一个名为pyspark.py的python文件

4)我通过转到RUN> pyspark>环境变量编辑了pyspark.py的配置

5)我编辑并添加了变量,如下图所示

PYTHON_PATH:C:\ Spark \ spark-2.3.0-bin-hadoop2.7 \ python \ pyspark SPARK_HOME:C:\ Spark \ spark-2.3.0-bin-hadoop2.7 \ python

enter image description here

6)然而,当我宣布

from pyspark.sql import SparkSession, SQLContext
from pyspark.sql.types import *
from pyspark.sql import functions as F

spark = SparkSession.builder.appName('company').getOrCreate()
sqlContext = SQLContext(spark)
data = sqlContext.createDataFrame([(1.449015065E9, 1.449015065E9), (0.0,1.449015065E9),(1.449015065E9,0.0),(0.0,0.0)],
                                  ["modified", "created"])
data.show()
data.printSchema()

test_df = data.select(data.modified).show()

它显示了一个模块未发现的错误 .

我究竟做错了什么?