• elasticsearche 精确值查找


    term查询

    term查询数字

    我们首先来看最为常用的term查询,可以用它处理数字(numbers),布尔值(Booleans),日志(dates)以及文本(text)

    让我们以下面的例子开始介绍,创建并索引一些表示产品的文档,文档里有字段 price 和 productID ( 价格 和 产品ID ):

    curl -X POST "localhost:9200/my_store/products/_bulk" -H 'Content-Type: application/json' -d'
    { "index": { "_id": 1 }}
    { "price" : 10, "productID" : "XHDK-A-1293-#fJ3" }
    { "index": { "_id": 2 }}
    { "price" : 20, "productID" : "KDKE-B-9947-#kL5" }
    { "index": { "_id": 3 }}
    { "price" : 30, "productID" : "JODL-X-1937-#pV7" }
    { "index": { "_id": 4 }}
    { "price" : 30, "productID" : "QQPX-R-3956-#aD8" }
    '
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    我们想要做的是查找具有某个价格的所有产品,有关系数据库背景的人肯定熟悉 SQL,如果我们将其用 SQL 形式表达,会是下面这样:

    SELECT document FROM products WHERE price = 20
    1
    在 Elasticsearch 的查询表达式(query DSL)中,我们可以使用 term 查询达到相同的目的。 term 查询会查找我们指定的精确值。作为其本身, term 查询是简单的。它接受一个字段名以及我们希望查找的数值:

    {
    "query":{
    "term" : {
    "price" : 20
    }
    }
    }
    1
    2
    3
    4
    5
    6
    7
    通常当查找一个精确值的时候,我们不希望对查询进行评分计算。只希望对文档进行包括或排除的计算,所以我们会使用 constant_score 查询以非评分模式来执行 term 查询并以一作为统一评分。

    最终组合的结果是一个 constant_score 查询,它包含一个 term 查询:

    GET /my_store/products/_search
    {
    "query":{
    "constant_score":{ //我们用constant_score将term查询转化为过滤器
    "filter":{
    "term" : { //我们之前看到过的term查询
    "price" : 20
    }
    }
    }
    }
    }
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    执行后,这个查询所搜索到的结果与我们期望的一致:只有文档 2 命中并作为结果返回(因为只有 2 的价格是 20 ):

    {
    "took": 5,
    "timed_out": false,
    "_shards": {
    "total": 5,
    "successful": 5,
    "skipped": 0,
    "failed": 0
    },
    "hits": {
    "total": 1,
    "max_score": 1,
    "hits": [
    {
    "_index": "my_store",
    "_type": "products",
    "_id": "2",
    "_score": 1, //查询置于 filter 语句内不进行评分或相关度的计算,所以所有的结果都会返回一个默认评分 1
    "_source": {
    "price": 20,
    "productID": "KDKE-B-9947-#kL5"
    }
    }
    ]
    }
    }
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    term查询文本

    如本部分开始处提到过的一样 ,使用 term 查询匹配字符串和匹配数字一样容易。如果我们想要查询某个具体 UPC ID 的产品,使用 SQL 表达式会是如下这样:

    SELECT product FROM products WHERE productID = "XHDK-A-1293-#fJ3"
    1
    转换成查询表达式(query DSL),同样使用 term 查询,形式如下:

    GET /my_store/products/_search
    {
    "query" : {
    "constant_score" : {
    "filter" : {
    "term" : {
    "productID" : "XHDK-A-1293-#fJ3"
    }
    }
    }
    }
    }
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    但这里有个小问题:我们无法获得期望的结果。为什么呢?问题不在 term 查询,而在于索引数据的方式。
    如果我们使用 analyze API (分析 API),我们可以看到这里的 UPC 码被拆分成多个更小的 token :

    GET /my_store/_analyze
    {
    "field": "productID",
    "text": "XHDK-A-1293-#fJ3"
    }
    1
    2
    3
    4
    5
    返回结果

    {
    "tokens" : [ {
    "token" : "xhdk",
    "start_offset" : 0,
    "end_offset" : 4,
    "type" : "<ALPHANUM>",
    "position" : 1
    }, {
    "token" : "a",
    "start_offset" : 5,
    "end_offset" : 6,
    "type" : "<ALPHANUM>",
    "position" : 2
    }, {
    "token" : "1293",
    "start_offset" : 7,
    "end_offset" : 11,
    "type" : "<NUM>",
    "position" : 3
    }, {
    "token" : "fj3",
    "start_offset" : 13,
    "end_offset" : 16,
    "type" : "<ALPHANUM>",
    "position" : 4
    } ]
    }
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    这里有几点需要注意:

    Elasticsearch 用 4 个不同的 token 而不是单个 token 来表示这个 UPC 。
    所有字母都是小写的。
    丢失了连字符和哈希符( # )。
    所以当我们用 term 查询查找精确值 XHDK-A-1293-#fJ3 的时候,找不到任何文档,因为它并不在我们的倒排索引中,正如前面呈现出的分析结果,索引里有四个 token 。
    显然这种对 ID 码或其他任何精确值的处理方式并不是我们想要的。

    为了避免这种问题,我们需要告诉 Elasticsearch 该字段具有精确值,要将其设置成 not_analyzed 无需分析的。 我们可以在 自定义字段映射 中查看它的用法。为了修正搜索结果,我们需要首先删除旧索引(因为它的映射不再正确)然后创建一个能正确映射的新索引:

    删除索引: DELETE /my_store //删除索引是必须的,因为我们不能更新已存在的映射。
    重新新建索引,自定义映射字段
    PUT /my_store
    {
    "mappings":{
    "products":{
    "properties":{
    "productID":{
    "type":"string",
    "index":"not_analyzed" //这里我们告诉 Elasticsearch ,我们不想对 productID 做任何分析
    }
    }
    }
    }
    }
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    现在我们可以为文档重建索引:

    curl -X POST "localhost:9200/my_store/products/_bulk" -H 'Content-Type: application/json' -d'
    { "index": { "_id": 1 }}
    { "price" : 10, "productID" : "XHDK-A-1293-#fJ3" }
    { "index": { "_id": 2 }}
    { "price" : 20, "productID" : "KDKE-B-9947-#kL5" }
    { "index": { "_id": 3 }}
    { "price" : 30, "productID" : "JODL-X-1937-#pV7" }
    { "index": { "_id": 4 }}
    { "price" : 30, "productID" : "QQPX-R-3956-#aD8" }
    '
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    此时, term 查询就能搜索到我们想要的结果,让我们再次搜索新索引过的数据(注意,查询和过滤并没有发生任何改变,改变的是数据映射的方式):

    GET /my_store/products/_search
    {
    "query" : {
    "constant_score" : {
    "filter" : {
    "term" : {
    "productID" : "XHDK-A-1293-#fJ3"
    }
    }
    }
    }
    }
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    因为 productID 字段是未分析过的, term 查询不会对其做任何分析,查询会进行精确查找并返回文档 1 。成功!

    内部过滤器的操作

    在内部,Elasticsearch 会在运行非评分查询的时执行多个操作:

    查找匹配文档
    term查询在倒排索引中查找XHDK-A-1293-#fJ3 然后获取包含改term的所有文档。本例中只有文档1满足我们的需求。
    创建bitset.
    过滤器会创建一个bitset(一个包含0和1的数组),它描述了哪个文档会包含该term。匹配文档的标志位是1的数据,本例中,bitset的值为[1,0,0,0]。在内部,它表示成一个“roaring bitmap”,可以同时对稀疏或密集的集合进行高效编码。
    迭代 bitset(s)
    一旦为每个查询生成了bitsets,elasticsearch就会循环迭代bitsets,从而找满足所有过滤条件的匹配文档的集合。执行顺序是启发式的,但一般来说先迭代稀疏的bitset(因为它可以排除掉大量的文档)。
    增量使用计数
    Elasticsearch 能够缓存非评分查询从而获得更快的访问,但是它也会不太聪明的缓存一些使用极少的东西。非评分计算因为倒排索引已经足够快了,所以我们只想缓存那些我们知道在将来会被再次使用的查询,以避免资源的浪费。
    为了实现以上设想,Elasticsearch 会为每个索引跟踪保留查询使用的历史状态。如果查询在最近的 256 次查询中会被用到,那么它就会被缓存到内存中。当 bitset 被缓存后,缓存会在那些低于 10,000 个文档(或少于 3% 的总索引数)的段(segment)中被忽略。这些小的段即将会消失,所以为它们分配缓存是一种浪费。
    实际情况并非如此(执行有它的复杂性,这取决于查询计划是如何重新规划的,有些启发式的算法是基于查询代价的),理论上非评分查询 先于 评分查询执行。非评分查询任务旨在降低那些将对评分查询计算带来更高成本的文档数量,从而达到快速搜索的目的。
    从概念上记住非评分计算是首先执行的,这将有助于写出高效又快速的搜索请求。
    ---------------------

  • 相关阅读:
    java中super构造方法的理解
    js和jquery
    hdfs数据导入及spark导入hdfs数据
    mysql设置定时任务
    ssh 设置无密登陆
    实验九 堆排序
    实验8 Hash表的建立和查找
    实验七 图的最小生成树算法
    实验六 huffman树的实现及应用
    实验五 二叉树的建立、遍历及应用
  • 原文地址:https://www.cnblogs.com/hyhy904/p/11173767.html
Copyright © 2020-2023  润新知