• ElasticSearch权威指南学习(分布式文档存储)


    路由文档到分片

    1. 当你索引一个文档,它被存储在单独一个主分片上。Elasticsearch是如何知道文档属于哪个分片的呢?当你创建一个新文档,它是如何知道是应该存储在分片1还是分片2上的呢?
    2. 进程不能是随机的,因为我们将来要检索文档。事实上,它根据一个简单的算法决定:

    shard = hash(routing) % number_of_primary_shards

    1. routing值是一个任意字符串,它默认是_id但也可以自定义。
    2. 这个routing字符串通过哈希函数生成一个数字,然后除以主切片的数量得到一个余数(remainder),余数的范围永远是0到number_of_primary_shards - 1,这个数字就是特定文档所在的分片。
    3. 这也解释了为什么主分片的数量只能在创建索引时定义且不能修改:如果主分片的数量在未来改变了,所有先前的路由值就失效了,文档也就永远找不到了。

    主分片和复制分片如何交互

    1. 我们能够发送请求给集群中任意一个节点。每个节点都有能力处理任意请求。每个节点都知道任意文档所在的节点,所以也可以将请求转发到需要的节点。

    新建、索引和删除文档

    1. 新建、索引和删除请求都是写(write)操作,它们必须在主分片上成功完成才能复制到相关的复制分片上。

      下面我们罗列在主分片和复制分片上成功新建、索引或删除一个文档必要的顺序步骤:

      1. 客户端给Node 1发送新建、索引或删除请求。
      2. 节点使用文档的_id确定文档属于分片0。它转发请求到Node 3,分片0位于这个节点上。
      3. Node 3在主分片上执行请求,如果成功,它转发请求到相应的位于Node 1和Node 2的复制节点上。当所有的复制节点报告成功,Node 3报告成功到请求的节点,请求的节点再报告给客户端。
    2. 客户端接收到成功响应的时候,文档的修改已经被应用于主分片和所有的复制分片。你的修改生效了。

    3. 有很多可选的请求参数允许你更改这一过程。你可能想牺牲一些安全来提高性能。这一选项很少使用因为Elasticsearch已经足够快

    4. replication

      • 复制默认的值是sync。这将导致主分片得到复制分片的成功响应后才返回。
      • 如果你设置replication为async,请求在主分片上被执行后就会返回给客户端。它依旧会转发请求给复制节点,但你将不知道复制节点成功与否。
      • 上面的这个选项不建议使用。默认的sync复制允许Elasticsearch强制反馈传输。async复制可能会因为在不等待其它分片就绪的情况下发送过多的请求而使Elasticsearch过载。
    5. consistency

      • 默认主分片在尝试写入时需要规定数量(quorum)或过半的分片(可以是主节点或复制节点)可用。这是防止数据被写入到错的网络分区。规定的数量计算公式如下:

      int( (primary + number_of_replicas) / 2 ) + 1

      • consistency允许的值为one(只有一个主分片),all(所有主分片和复制分片)或者默认的quorum或过半分片。
      • 注意number_of_replicas是在索引中的的设置,用来定义复制分片的数量,而不是现在活动的复制节点的数量。如果你定义了索引有3个复制节点,那规定数量是:

      int( (primary + 3 replicas) / 2 ) + 1 = 3

      • 但如果你只有2个节点,那你的活动分片不够规定数量,也就不能索引或删除任何文档。
    6. timeout

      • 当分片副本不足时会怎样?Elasticsearch会等待更多的分片出现。默认等待一分钟。如果需要,你可以设置timeout参数让它终止的更早:100表示100毫秒,30s表示30秒。
      • ps:新索引默认有1个复制分片,这意味着为了满足quorum的要求需要两个活动的分片。当然,这个默认设置将阻止我们在单一节点集群中进行操作。为了避开这个问题,规定数量只有在number_of_replicas大于一时才生效

    检索文档

    1. 对于读请求,为了平衡负载,请求节点会为每个请求选择不同的分片——它会循环所有分片副本。
    • 客户端给Node 1发送get请求。
    • 节点使用文档的_id确定文档属于分片0。分片0对应的复制分片在三个节点上都有。此时,它转发请求到Node 2。
    • Node 2返回文档(document)给Node 1然后返回给客户端。

    局部更新文档

    1. 客户端给Node 1发送更新请求。
    2. 它转发请求到主分片所在节点Node 3。
    3. Node 3从主分片检索出文档,修改_source字段的JSON,然后在主分片上重建索引。如果有其他进程修改了文档,它以retry_on_conflict设置的次数重复步骤3,都未成功则放弃。
    4. 如果Node 3成功更新文档,它同时转发文档的新版本到Node 1和Node 2上的复制节点以重建索引。当所有复制节点报告成功,Node 3返回成功给请求节点,然后返回给客户端。
    • ps: 当主分片转发更改给复制分片时,并不是转发更新请求,而是转发整个文档的新版本。记住这些修改转发到复制节点是异步的,它们并不能保证到达的顺序与发送相同

    多文档模式

    1. mget和bulk API与单独的文档类似。差别是请求节点知道每个文档所在的分片。它把多文档请求拆成每个分片的对文档请求,然后转发每个参与的节点。

    2. 一旦接收到每个节点的应答,然后整理这些响应组合为一个单独的响应,最后返回给客户端。

    3. 一个mget请求检索多个文档的顺序步骤

      1. 客户端向Node 1发送mget请求。
      2. Node 1为每个分片构建一个多条数据检索请求,然后转发到这些请求所需的主分片或复制分片上。当所有回复被接收,Node 1构建响应并返回给客户端。
    4. 一个bulk执行多个create、index、delete和update请求的顺序步骤

      1. 客户端向Node 1发送bulk请求。
      2. Node 1为每个分片构建批量请求,然后转发到这些请求所需的主分片上。
      3. 主分片一个接一个的按序执行操作。当一个操作执行完,主分片转发新文档(或者删除部分)给对应的复制节点,然后执行下一个操作。一旦所有复制节点报告所有操作已成功完成,节点就报告success给请求节点,后者(请求节点)整理响应并返回给客户端。
      4. ps: bulk API还可以在最上层使用replication(同步异步)和consistency(一致性,满足多少复制分片收到请求结果才返回最终结果)参数

    批量格式问题

    1. 为什么是奇怪的格式?
    2. 如果每个单独的请求被包装到JSON数组中,那意味着我们需要:
    • 解析JSON为数组(包括文档数据,可能非常大)
    • 检查每个请求决定应该到哪个分片上
    • 为每个分片创建一个请求的数组
    • 序列化这些数组为内部传输格式
    • 发送请求到每个分片

    这可行,但需要大量的RAM来承载本质上相同的数据,还要创建更多的数据结构使得JVM花更多的时间执行垃圾回收。

    • 取而代之的,Elasticsearch则是从网络缓冲区中一行一行的直接读取数据。它使用换行符识别和解析action/metadata行,以决定哪些分片来处理这个请求。
    • 这些行请求直接转发到对应的分片上。这些没有冗余复制,没有多余的数据结构。整个请求过程使用最小的内存在进行。

    如果,您认为阅读这篇博客让您有些收获,不妨点击一下右下角的推荐按钮。
    如果,您希望更容易地发现我的新博客,不妨点击一下【关注我】。

    我的写作热情也离不开您的肯定支持,感谢您的阅读,我是【老梁】!

  • 相关阅读:
    VS Code中编写C
    Latex
    JAVA学习-----容器和数据结构
    Markdown2最最基本操作说明(未完待续)
    [lua] table.sort(_table, comp)使用要点
    [coco2d]pageView:addPage时,page无法对齐
    [cocos2d]修改富文本文本和高度
    [cocos2d]格式化获取当前layer的控件名
    [c++]牛客刷题记录2.18
    [c++]STL学习
  • 原文地址:https://www.cnblogs.com/sky-chen/p/9958677.html
Copyright © 2020-2023  润新知