数据类型UDT与Spark SQL中的编码器

问题描述

在Spark sql中,Schemalimited DataTypes,还有limited Encoders用于将JVM对象与内部Spark sql表示形式相互转换。

java.lang.UnsupportedOperationException:不支持xxx类型的模式

无法找到数据集中存储的类型的编码器。导入sqlContext.implicits支持基本类型(Int,String等)和产品类型(案例类)。_在将来的版本中将添加对序列化其他类型的支持

据我了解,两者都涉及内部Spark sql优化器(这就是为什么仅提供有限数量DataTypeEncoder的原因);然后DataFrameDataset都只是Dataset[A]

问题(或更多..混乱)

  • 为什么第一个错误仅出现在DataFrame中而不出现在Dataset[T]中?同样的问题,第二个错误...

  • 创建UDT是否可以解决第二个错误?创建编码器可以解决一个错误吗?

  • 我应该如何理解它们之间的关系,以及它们如何与Dataset或Spark sql引擎进行交互?

本文的主要目的是在这两个概念中进行更多的探索,并吸引公开讨论,因此,如果问题不太具体,请耐心等待。并感谢您分享理解。谢谢。

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)

相关问答

Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其...
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。...
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbc...