• elasticsearch 关联单词查询以及Shingles


    Shingle Token Filter

    A token filter of type shingle that constructs shingles (token n-grams) from a token stream. In other words, it creates combinations of tokens as a single token. For example, the sentence "please divide this sentence into shingles" might be tokenized into shingles "please divide", "divide this", "this sentence", "sentence into", and "into shingles".

    This filter handles position increments > 1 by inserting filler tokens (tokens with termtext "_"). It does not handle a position increment of 0.

    The following are settings that can be set for a shingle token filter type:

    Setting Description

    max_shingle_size

    The maximum shingle size. Defaults to 2.

    min_shingle_size

    The minimum shingle size. Defaults to 2.

    output_unigrams

    If true the output will contain the input tokens (unigrams) as well as the shingles. Defaults to true.

    output_unigrams_if_no_shingles

    If output_unigrams is false the output will contain the input tokens (unigrams) if no shingles are available. Note if output_unigrams is set to true this setting has no effect. Defaults to false.

    token_separator

    The string to use when joining adjacent tokens to form a shingle. Defaults to " ".

    filler_token

    The string to use as a replacement for each position at which there is no actual token in the stream. For instance this string is used if the position increment is greater than one when a stop filter is used together with the shingle filter. Defaults to "_"

    The index level setting index.max_shingle_diff controls the maximum allowed difference between max_shingle_size and min_shingle_size.

    参考:https://www.elastic.co/guide/en/elasticsearch/reference/current/analysis-shingle-tokenfilter.html

    寻找关联的单词(Finding Associated Words)

    尽管短语和邻近度查询很管用,它们还是有一个缺点。它们过于严格了:所有的在短语查询中的词条都必须出现在文档中,即使使用了slop。

    通过slop获得的能够调整单词顺序的灵活性也是有代价的,因为你失去了单词之间的关联。尽管你能够识别文档中的sue,alligator和ate出现在一块,但是你不能判断是Sue ate还是alligator ate。

    当单词结合在一起使用时,它们表达的意思比单独使用时要丰富。"I’m not happy I’m working"和"I’m happy I’m not working"含有相同的单词,也拥有相近的邻近度,但是它们的意思大相径庭。

    如果我们索引单词对,而不是索引独立的单词,那么我们就能够保留更多关于单词使用的上下文信息。

    对于句子"Sue ate the alligator",我们不仅索引每个单词(或者Unigram)为一个词条:

    ["sue", "ate", "the", "alligator"]

    我们同时会将每个单词和它的邻近单词一起索引成一个词条:

    ["sue ate", "ate the", "the alligator"]

    这些单词对(也叫做Bigram)就是所谓的Shingle。

    TIP

    Shingle不限于只是单词对;你也可以索引三个单词(Word Triplet,也被称为Trigram)作为一个词条:

    ["sue ate the", "ate the alligator"]

    Trigram能够给你更高的精度,但是也大大地增加了索引的不同词条的数量。在多数情况下,Bigram就足够了。

    当然,只有当用户输入查询的顺序和原始文档的顺序一致,Shingle才能够起作用;一个针对sue alligator的查询会匹配单独的单词,但是不会匹配任何Shingle。

    幸运的是,用户会倾向于使用和他们正在搜索的数据中相似的结构来表达查询。但是这是很重要的一点:仅使用Bigram是不够的;我们仍然需要Unigram,我们可以将匹配Bigram作为信号(Signal)来增加相关度分值。

    产生Shingle

    Shingle需要在索引期间,作为分析过程的一部分被创建。我们可以将Unigram和Bigram都索引到一个字段中,但是将它们放在不同的字段中会更加清晰,也能够让它们能够被独立地查询。Unigram字段形成了我们搜索的基础部分,而Bigram字段则用来提升相关度。

    首先,我们需要使用shingle词条过滤器来创建解析器:

    DELETE /my_index
    
    PUT /my_index
    {
        "settings": {
            "number_of_shards": 1,  
            "analysis": {
                "filter": {
                    "my_shingle_filter": {
                        "type":             "shingle",
                        "min_shingle_size": 2, 
                        "max_shingle_size": 2, 
                        "output_unigrams":  false   
                    }
                },
                "analyzer": {
                    "my_shingle_analyzer": {
                        "type":             "custom",
                        "tokenizer":        "standard",
                        "filter": [
                            "lowercase",
                            "my_shingle_filter" 
                        ]
                    }
                }
            }
        }
    }

    默认Shingle的min/max值就是2,因此我们也可以不显式地指定它们。 output_unigrams被设置为false,用来避免将Unigram和Bigram索引到相同字段中。

    让我们使用analyze API来测试该解析器:

    GET /my_index/_analyze?analyzer=my_shingle_analyzer
    Sue ate the alligator

    不出所料,我们得到了3个词条:

    • sue ate
    • ate the
    • the alligator

    现在我们就可以创建一个使用新解析器的字段了。

    多字段(Multifields)

    将Unigram和Bigram分开索引会更加清晰,因此我们将title字段创建成一个多字段(Multifield)(参见字符串排序和多字段(String Sorting and Multifields)):

    PUT /my_index/_mapping/my_type
    {
        "my_type": {
            "properties": {
                "title": {
                    "type": "string",
                    "fields": {
                        "shingles": {
                            "type":     "string",
                            "analyzer": "my_shingle_analyzer"
                        }
                    }
                }
            }
        }
    }

    有了上述映射,JSON文档中的title字段会以Unigram(title字段)和Bigram(title.shingles字段)的方式索引,从而让我们可以独立地对这两个字段进行查询。

    最后,我们可以索引示例文档:

    POST /my_index/my_type/_bulk
    { "index": { "_id": 1 }}
    { "title": "Sue ate the alligator" }
    { "index": { "_id": 2 }}
    { "title": "The alligator ate Sue" }
    { "index": { "_id": 3 }}
    { "title": "Sue never goes anywhere without her alligator skin purse" }

    搜索Shingles

    为了理解添加的shingles字段的好处,让我们首先看看一个针对"The hungry alligator ate Sue"的简单match查询的返回结果:

    GET /my_index/my_type/_search
    {
       "query": {
            "match": {
               "title": "the hungry alligator ate sue"
            }
       }
    }

    该查询会返回所有的3份文档,但是注意文档1和文档2拥有相同的相关度分值,因为它们含有相同的单词:

    {
      "hits": [
         {
            "_id": "1",
            "_score": 0.44273707, 
            "_source": {
               "title": "Sue ate the alligator"
            }
         },
         {
            "_id": "2",
            "_score": 0.44273707, 
            "_source": {
               "title": "The alligator ate Sue"
            }
         },
         {
            "_id": "3", 
            "_score": 0.046571054,
            "_source": {
               "title": "Sue never goes anywhere without her alligator skin purse"
            }
         }
      ]
    }

    现在让我们将shingles字段也添加到查询中。记住我们会将shingle字段作为信号 - 以增加相关度分值 - 我们仍然需要将主要的title字段包含到查询中:

    GET /my_index/my_type/_search
    {
       "query": {
          "bool": {
             "must": {
                "match": {
                   "title": "the hungry alligator ate sue"
                }
             },
             "should": {
                "match": {
                   "title.shingles": "the hungry alligator ate sue"
                }
             }
          }
       }
    }

    我们仍然匹配了3分文档,但是文档2现在排在了第一位,因为它匹配了Shingle词条"ate sue":

    {
      "hits": [
         {
            "_id": "2",
            "_score": 0.4883322,
            "_source": {
               "title": "The alligator ate Sue"
            }
         },
         {
            "_id": "1",
            "_score": 0.13422975,
            "_source": {
               "title": "Sue ate the alligator"
            }
         },
         {
            "_id": "3",
            "_score": 0.014119488,
            "_source": {
               "title": "Sue never goes anywhere without her alligator skin purse"
            }
         }
      ]
    }

    即使在查询中包含了没有在任何文档中出现的单词hungry,我们仍然通过使用单词邻近度得到了最相关的文档。

    性能

    Shingle不仅比短语查询更灵活,它们的性能也更好。相比每次搜索需要为短语查询付出的代价,对Shingle的查询和简单match查询一样的高效。只是在索引期间会付出一点小代价,因为更多的词条需要被索引,意味着使用了Shingle的字段也会占用更多的磁盘空间。但是,多数应用是写入一次读取多次的,因此在索引期间花费一点代价来让查询更迅速是有意义的。

    这是一个你在ES中经常会碰到的主题:让你在搜索期间能够做很多事情,而不需要任何预先的设置。一旦更好地了解了你的需求,就能够通过在索引期间正确地建模来得到更好的结果和更好的性能。

  • 相关阅读:
    windows环境配置多个tomcat
    navicat 12 破解
    Eclipse创建Maven报异常:Could not get the value for parameter encoding for plugin......
    tomcat设置日志打印到文件中
    修改mysql数据库的休眠时间
    spring的bean标签的常用属性
    redis 安装与下载(windows版本)
    mysql设置远程可访问
    WPF非轮询方式更新数据库变化SqlDependency(数据库修改前台自动更新)
    WPF实战案例-在线程内同步集合数据到UI线程
  • 原文地址:https://www.cnblogs.com/gmhappy/p/9472376.html
Copyright © 2020-2023  润新知