加入 RDD leftOuterJoin - 错误:类型不匹配

问题描述

尝试使用 leftOuterJoin 连接两个不同大小的 RDD。已经用其他类似的 RDD 解决了这个问题,但由于某种原因,我现在收到了这个错误

type mismatch;
[error]  found   : org.apache.spark.rdd.RDD[(Int,Int,Double,AnyVal)]
[error]  required: org.apache.spark.rdd.RDD[(Int,?)]

带有指向对象 userScaleBack 的箭头(具有“发现”错误的结构):

val userProdItemScale = itemAverages.leftOuterJoin(userScaleBack)

如您所见,对象包含元组和 5 元组,它们的计数分别为 1650 和 80000。最左边元素中的所有值在两个对象之间共享,因此应该将 ?-值连接到较大对象中 leftOuterJoin 匹配的所有位置。对象的内容如下所示:

userScaleBack
(1053,451,2.7362637362637363,0.011609034023077685,2.2637362637362637)
(466,0.052013404418021464,2.2637362637362637)

itemAverages
(1053,3.473684210526316)
(466,3.4390243902439024)

解决方法

您需要将 userScaleBack 的类型更改为 RDD[(Int,?)],即具有两个元素的元组的 RDD。您可以使用 keyBy 来执行此操作:

val userProdItemScale = itemAverages.leftOuterJoin(userScaleBack.keyBy(_._1))