语法 df.rdd.map(lambda row: row[0:]) 在 PySpark 中有什么作用?

问题描述

我要求的语法如下:

df_rdd = df.rdd.map(lambda row: row[0:])

在这里找到了,为什么还要做呢?为什么不使用 .columns 函数

语法可以在这里找到: https://forums.databricks.com/questions/3092/how-to-calculate-correlation-matrix-with-all-colum.html

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)