scala – 如何计算Spark Dataframe中的列数?

我在Spark中有这个数据框我想要计算它中可用列的数量.我知道如何计算列中的行数,但我想计算列数.

val df1 = Seq(
    ("spark","scala","2015-10-14",10,"rahul"),("spark","2015-10-15",11,"abhishek"),"2015-10-16",12,"Jay"),null,13,"Kiran"))
  .toDF("bu_name","client_name","date","patient_id","paitent _name")
df1.show

任何人都可以告诉我如何计算此数据框中的列数?我使用的是Scala语言.

解决方法

要计算列数,只需执行以下操作:

df1.columns.size

相关文章

共收录Twitter的14款开源软件,第1页Twitter的Emoji表情 Tw...
Java和Scala中关于==的区别Java:==比较两个变量本身的值,即...
本篇内容主要讲解“Scala怎么使用”,感兴趣的朋友不妨来看看...
这篇文章主要介绍“Scala是一种什么语言”,在日常操作中,相...
这篇文章主要介绍“Scala Trait怎么使用”,在日常操作中,相...
这篇文章主要介绍“Scala类型检查与模式匹配怎么使用”,在日...