创建聚合管道时 AccumulatorOperators Max 的问题

问题描述

我正在尝试将以下 Mongo shell 聚合查询转换为 Spring Data MongoDB 聚合:

db.getCollection('Orders').aggregate([
{ $group: {
    "_id": {"book":"$bookingId"},"docs": {$push: '$$ROOT'}
  }
},{$project: {
   latestOrd: {
      $filter: {
         input: "$docs",as: "item",cond: { $eq: ["$$item.bookingVersion",{ $max: "$docs.bookingVersion" }] }
      }
   }
 }
},{ $unwind: "$latestOrd" },{ $replaceRoot:{newRoot:"$latestOrd"}}
])

查询获取所有预订版本最高的订单(例如,一个bookingId可能有多个版本3的文档)。

查询在 Mongo shell 中工作正常,但我对它的 Spring Data 版本有问题:

Aggregation.group("bookingId").push(Aggregation.ROOT).as("docs");
Aggregation.project().and(filter("docs")
          .as("item")
          .by(valueOf("item.bookingVersion")
                .equalTovalue(AccumulatorOperators.Max.maxOf("docs.bookingVersion"))))
          .as("latestOrd");
Aggregation.unwind("latestOrd");
Aggregation.replaceRoot("latestOrd");

Spring 生成的 Mongo 查询类似于我在上面提供的查询,除了 $max accumulator:

{ "$max" : "$$docs.bookingVersion" }

出于某种原因,它添加了双美元符号而不是单美元符号,因此我出现以下错误

'Use of undefined variable: docs' on server 127.0.0.1:27017

我使用的是 spring-boot-starter 2.1.0.RELEASE 和 4.2 版本的 Mongo 服务器。 感谢您对此的任何帮助。

输入文件

[
  {
    "_id": "5f847811ebcd1a51a0196736","status": "REJECTED","bookingId": "1","bookingVersion": 4,"operation": "CREATE"
  },{
    "_id": "5f847811ebcd1a51a0196735","status": "CREATED","docNumber": "7",{
    "_id": "5f847811ebcd1a51a0196734","bookingVersion": 3,"docNumber": "6",{
    "_id": "5f847811ebcd1a51a0196738","bookingId": "2","bookingVersion": 1,"docNumber": "8",{
    "_id": "5f847811ebcd1a51a0196737","bookingVersion": 2,"docNumber": "9","operation": "CREATE"
  }
]

预期输出

[
  {
    "_id": "5f847811ebcd1a51a0196736","operation": "CREATE"
  }
]

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)

相关问答

Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其...
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。...
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbc...