10
我正在使用Spark 1.3.0和Python。我有一个数据框,我希望添加一个从其他列派生的额外列。与此类似,在从其他列派生的数据框中添加新列(Spark)
>>old_df.columns
[col_1, col_2, ..., col_m]
>>new_df.columns
[col_1, col_2, ..., col_m, col_n]
其中
col_n = col_3 - col_4
如何在PySpark做到这一点?为实现这一
嘿@ zero323,如果我想创建一个列,比如Col_1是字符串,col_2是字符串,我希望column_n为col_1和Col_2的连接。即Col_1是零并且column_2是323,Column_n应该是零3232? – Jason
@Jason http://stackoverflow.com/a/31452109/1560062 – zero323
谢谢@ zero323。虽然我有这个问题: df.select(concat(col(“k”),lit(“”),col(“v”)))如何在这里创建第三列? – Jason