在
http://spark.apache.org/docs/latest/programming-guide.html阅读Apache Spark指南它说:
解决方法
实际上,虽然take并不是完全平行的,但它也不是完全顺序的.
例如,假设您采用(200),每个分区有10个元素. take将首先获取分区0并看到它有10个元素.它假定它需要20个这样的分区来获得200个元素.但是最好在并行请求中要求更多.所以它需要30个分区,它已经有1.所以它接下来并行地获取分区1到29.这可能是最后一步.如果它非常不吉利,并且没有找到总共200个元素,它将再次进行估算并同时请求另一批.
查看代码,它有详细记录:
https://github.com/apache/spark/blob/v1.2.0/core/src/main/scala/org/apache/spark/rdd/RDD.scala#L1049
我认为文档是错误的.只有在需要单个分区时才会进行本地计算.这是第一次传递(获取分区0)的情况,但通常不是后续传递中的情况.