spark 中的 minHashLSH 实现解释了

问题描述

spark mllib 中 minhashLSH 的拟合实际上有什么作用?据我了解,它会生成一组散列函数。这些函数随机生成的吗?我们在这里用输入数据拟合什么?

我使用过的代码参考

上面生成的散列函数可以在两个数据集上的 appx.similiarityjoin 中使用来生成散列,并在这些散列上计算 jaccard 距离。如果我在这里遗漏了什么,请告诉我。

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)