首页 文章

如何在pyspark中更改数据框列名?

提问于
浏览
82

我来自pandas背景,用于将CSV文件中的数据读入数据帧,然后使用简单命令将列名更改为有用的内容:

df.columns = new_column_name_list

但是,在使用sqlContext创建的pyspark数据帧中,这同样不起作用 . 我可以轻松解决的唯一解决方案如下:

df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', inferschema='true', delimiter='\t').load("data.txt")
oldSchema = df.schema
for i,k in enumerate(oldSchema.fields):
  k.name = new_column_name_list[i]
df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', delimiter='\t').load("data.txt", schema=oldSchema)

这基本上是定义变量两次并首先推断模式然后重命名列名,然后再次使用更新的模式加载数据帧 .

像熊猫一样,是否有更好,更有效的方法来做到这一点?

我的火花版是1.5.0

10 回答

  • 3
    df = df.withColumnRenamed("colName", "newColName")
           .withColumnRenamed("colName2", "newColName2")
    

    使用这种方式的优点:使用长列列表,您只想更改几个列名称 . 在这些情况下,这可能非常方便 . 连接具有重复列名称的表时非常有用 .

  • 72

    我用这个:

    from pyspark.sql.functions import col
    df.select(['vin',col('timeStamp').alias('Date')]).show()
    
  • 2

    这是我使用的方法:

    创建pyspark会话:

    import pyspark
    from pyspark.sql import SparkSession
    spark = SparkSession.builder.appName('changeColNames').getOrCreate()
    

    创建数据帧:

    df = spark.createDataFrame(data = [('Bob', 5.62,'juice'),  ('Sue',0.85,'milk')], schema = ["Name", "Amount","Item"])
    

    使用列名查看df:

    df.show()
    +----+------+-----+
    |Name|Amount| Item|
    +----+------+-----+
    | Bob|  5.62|juice|
    | Sue|  0.85| milk|
    +----+------+-----+
    

    创建一个包含新列名的列表:

    newcolnames = ['NameNew','AmountNew','ItemNew']
    

    更改df的列名:

    for c,n in zip(df.columns,newcolnames):
        df=df.withColumnRenamed(c,n)
    

    使用新列名查看df:

    df.show()
    +-------+---------+-------+
    |NameNew|AmountNew|ItemNew|
    +-------+---------+-------+
    |    Bob|     5.62|  juice|
    |    Sue|     0.85|   milk|
    +-------+---------+-------+
    
  • 185

    如果您想对所有列名称应用简单转换,此代码可以解决这个问题:(我用下划线替换所有空格)

    new_column_name_list= list(map(lambda x: x.replace(" ", "_"), df.columns))
    
    df = df.toDF(*new_column_name_list)
    

    感谢@ user8117731的 toDf 技巧 .

  • 0

    有很多方法可以做到这一点:

    data = sqlContext.createDataFrame([("Alberto", 2), ("Dakota", 2)], 
                                      ["Name", "askdaosdka"])
    data.show()
    data.printSchema()
    
    # Output
    #+-------+----------+
    #|   Name|askdaosdka|
    #+-------+----------+
    #|Alberto|         2|
    #| Dakota|         2|
    #+-------+----------+
    
    #root
    # |-- Name: string (nullable = true)
    # |-- askdaosdka: long (nullable = true)
    
    df = data.selectExpr("Name as name", "askdaosdka as age")
    df.show()
    df.printSchema()
    
    # Output
    #+-------+---+
    #|   name|age|
    #+-------+---+
    #|Alberto|  2|
    #| Dakota|  2|
    #+-------+---+
    
    #root
    # |-- name: string (nullable = true)
    # |-- age: long (nullable = true)
    
    • 选项2.使用withColumnRenamed,请注意此方法允许您"overwrite"同一列 .
    oldColumns = data.schema.names
    newColumns = ["name", "age"]
    
    df = reduce(lambda data, idx: data.withColumnRenamed(oldColumns[idx], newColumns[idx]), xrange(len(oldColumns)), data)
    df.printSchema()
    df.show()
    
    • 选项3.使用alias,在Scala中也可以使用as .
    from pyspark.sql.functions import *
    
    data = data.select(col("Name").alias("name"), col("askdaosdka").alias("age"))
    data.show()
    
    # Output
    #+-------+---+
    #|   name|age|
    #+-------+---+
    #|Alberto|  2|
    #| Dakota|  2|
    #+-------+---+
    
    • 选项4.使用sqlContext.sql,它允许您在 DataFrames 上使用SQL查询作为表注册 .
    sqlContext.registerDataFrameAsTable(data, "myTable")
    df2 = sqlContext.sql("SELECT Name AS name, askdaosdka as age from myTable")
    
    df2.show()
    
    # Output
    #+-------+---+
    #|   name|age|
    #+-------+---+
    #|Alberto|  2|
    #| Dakota|  2|
    #+-------+---+
    
  • 8

    对于单列重命名,您仍然可以使用toDF() . 例如,

    df1.selectExpr("SALARY*2").toDF("REVISED_SALARY").show()
    
  • 0

    如果要重命名单个列并保持其余原样:

    from pyspark.sql.functions import col
    new_df = old_df.select(*[col(s).alias(new_name) if s == column_to_change else s for s in old_df.columns])
    
  • 7

    如果要更改所有列名称,请尝试 df.toDF(*cols)

  • 19

    另一种只重命名一列的方法(使用 import pyspark.sql.functions as F ):

    df = df.select( '*', F.col('count').alias('new_count') ).drop('count')
    
  • 0

    df.withColumnRenamed('age', 'age2')

相关问题