如何使用 Spark Java 加载多个 mongo 集合

问题描述

使用官方文档,我可以使用 spark->

一个 mongo db 集合中读取一个
    SparkSession spark = SparkSession.builder()
  .master("local")
  .appName("MongoSparkConnectorIntro")
  .config("spark.mongodb.input.uri","mongodb://127.0.0.1/test.myCollection")
  .config("spark.mongodb.output.uri","mongodb://127.0.0.1/test.myCollection")
  .getorCreate();
// Create a JavaSparkContext using the SparkSession's SparkContext object
JavaSparkContext jsc = new JavaSparkContext(spark.sparkContext());
/*Start Example: Read data from MongoDB************************/
JavaMongoRDD<Document> rdd = MongoSpark.load(jsc);

现在,我想连接到多个集合。有什么办法,我可以使用 Spark Java 实现这个...

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)