如何使用Elasticsearch对输入的文本执行部分单词搜索?

问题描述

我有一个查询搜索以下格式的记录:TR000002_1_2020

用户应该可以通过以下方式搜索结果

TR0000022_1_2020TR000002_1_20202020。我正在使用Elasticsearch 6.8,所以无法使用E7中引入的内置“按类型输入”功能。因此,我认为wildcard搜索ngram可能最适合我的需求。这是我的两种方法,以及为什么它们不起作用。

  1. 通配

属性映射:

.Text(t => t
    .Name(tr => tr.TestRecordId)
)

查询

m => m.Wildcard(w => w
    .Field(tr => tr.TestRecordId)
    .Value($"*{form.TestRecordId}*")
),

这可行,但是区分大小写,因此如果用户使用tr000002_1_2020搜索,则不会返回任何结果(因为查询中的tr是小写的)>

  1. ngram(当您键入等效项时进行搜索

创建自定义ngram分析器

.Analysis(a => a
    .Analyzers(aa => aa
        .Custom("autocomplete",ca => ca
            .Tokenizer("autocomplete")
            .Filters(new string[] {
                "lowercase"
            })
        )
        .Custom("autocomplete_search",ca => ca
            .Tokenizer("lowercase")
        )
    )
    .Tokenizers(t => t
        .NGram("autocomplete",e => e
            .MinGram(2)
            .MaxGram(16)
            .TokenChars(new TokenChar[] {
                TokenChar.Letter,TokenChar.Digit,TokenChar.Punctuation,TokenChar.Symbol
            })
        )
    )
)

属性映射

.Text(t => t
    .Name(tr => tr.TestRecordId)
    .Analyzer("autocomplete")
    .SearchAnalyzer("autocomplete_search")
)

查询

m => m.Match(m => m
    .Query(form.TestRecordId)
),

in this answer所述,这是行不通的,因为令牌生成器将字符拆分为20022020之类的元素,因此我的查询结果返回索引中包含2020的所有文档,例如TR000002_1_2020TR000008_1_2020TR000003_6_2020

Elasticsearch允许我所需的搜索行为的最佳利用方式是什么?我也看到了query string的使用。谢谢!

解决方法

这是一种满足您要求的简单方法(希望如此)。

  1. 我们使用模式替换char过滤器删除参考(TR000 ...)的固定部分
  2. 我们使用拆分标记器将引用中的“ _”字符拆分为
  3. 我们使用matchPhrase查询来确保引用的片段顺序匹配

使用此分析链作为参考TR000002_1_2020,我们获得了令牌["2","1","2020" ]。因此它将与查询["TR000002_1_2020","TR000002 1 2020","2_1_2020","1_2020"]相匹配,但与3_1_20202_2_2020不匹配。

这里是映射和分析的示例。它不在Nest中,但我认为您可以进行翻译。

PUT pattern_split_demo
{
  "settings": {
    "analysis": {
      "char_filter": {
        "replace_char_filter": {
          "type": "pattern_replace","pattern": "^TR0*","replacement": ""
        }
      },"tokenizer": {
        "split_tokenizer": {
          "type": "simple_pattern_split","pattern": "_"
        }
      },"analyzer": {
        "split_analyzer": {
          "tokenizer": "split_tokenizer","filter": [
            "lowercase"
          ],"char_filter": [
            "replace_char_filter"
          ]
        }
      }
    }
  },"mappings": {
    "properties": {
      "content": {
        "type": "text","analyzer": "split_analyzer"
      }
    }
  }
}

POST pattern_split_demo/_analyze
{
  "text": "TR000002_1_2020","analyzer": "split_analyzer"
} => ["2","2020"]

POST pattern_split_demo/_doc?refresh=true
{
  "content": "TR000002_1_2020"
}

POST pattern_split_demo/_search
{
  "query": {
    "match_phrase": {
      "content": "TR000002_1_2020"
    }
  }
}