• ElasticSearch专栏


    1.es分布式架构原理(es如何实现分布式)?

      elasticsearch设计的理念就是分布式搜索引擎,底层其实还是基于lucene的。核心思想就是在多台机器上启动多个es进程实例,组成了一个es集群。es中存储数据的基本单位是索引,这个索引可以拆分成多个shard,每个shard存储部分数据。

    接着就是这个shard的数据实际是有多个备份,就是说每个shard都有一个primary shard,负责写入数据,但是还有几个replica shardprimary shard写入数据之后,会将数据同步到其他几个replica shard上去。

     

     通过这个replica的方案,每个shard的数据都有多个备份,如果某个机器宕机了,没关系啊,还有别的数据副本在别的机器上呢。高可用了吧。

     

     es集群多个节点,会自动选举一个节点为master节点,这个master节点其实就是干一些管理的工作的,比如维护索引元数据拉,负责切换primary shardreplica shard身份拉,之类的。要是master节点宕机了,那么会重新选举一个节点为master节点。

     如果是非master节点宕机了,那么会由master节点,让那个宕机节点上的primary shard的身份转移到其他机器上的replica shard。急着你要是修复了那个宕机机器,重启了之后,master节点会控制将缺失的replica shard分配过去,同步后续修改的数据之类的,让集群恢复正常。

    其实上述就是elasticsearch作为一个分布式搜索引擎最基本的一个架构设计。

     

     

    2.es写入数据的工作原理是什么啊?es查询数据的工作原理是什么啊?

     

    1es写数据过程

     

    1)客户端选择一个node发送请求过去,这个node就是coordinating node(协调节点)

    2coordinating node,对document进行路由,将请求转发给对应的node(有primary shard

    3)实际的node上的primary shard处理请求,然后将数据同步到replica node

    4coordinating node,如果发现primary node和所有replica node都搞定之后,就返回响应结果给客户端

     

    2es读数据过程

     

    查询,GET某一条数据,写入了某个document,这个document会自动给你分配一个全局唯一的iddoc id,同时也是根据doc id进行hash路由到对应的primary shard上面去。也可以手动指定doc id,比如用订单id,用户id

    你可以通过doc id来查询,会根据doc id进行hash,判断出来当时把doc id分配到了哪个shard上面去,从那个shard去查询.

    1)客户端发送请求到任意一个node,成为coordinate node

    2coordinate nodedocument进行路由,将请求转发到对应的node,此时会使用round-robin随机轮询算法,在primary shard以及其所有replica中随机选择一个,让读请求负载均衡

    3)接收请求的node返回documentcoordinate node

    4coordinate node返回document给客户端

     

    3es搜索数据过程

     

    es最强大的是做全文检索,就是比如你有三条数据

     

    java真好玩儿啊

    java好难学啊

    j2ee特别牛

    你根据java关键词来搜索,将包含javadocument给搜索出来,es就会给你返回:java真好玩儿啊,java好难学啊

     

    1)客户端发送请求到一个coordinate node

    2)协调节点将搜索请求转发到所有的shard对应的primary shardreplica shard也可以

    3query phase:每个shard将自己的搜索结果(其实就是一些doc id),返回给协调节点,由协调节点进行数据的合并、排序、分页等操作,产出最终结果

    4fetch phase:接着由协调节点,根据doc id去各个节点上拉取实际的document数据,最终返回给客户端

     

    4)搜索的底层原理,倒排索引,画图说明传统数据库和倒排索引的区别

     

    5)写数据底层原理

     

    1)先写入buffer,在buffer里的时候数据是搜索不到的;同时将数据写入translog日志文件

    2)如果buffer快满了,或者到一定时间,就会将buffer数据refresh到一个新的segment file中,但是此时数据不是直接进入segment file的磁盘文件的,而是先进入os cache的。这个过程就是refresh

    每隔1秒钟,esbuffer中的数据写入一个新的segment file,每秒钟会产生一个新的磁盘文件,segment file,这个segment file中就存储最近1秒内buffer中写入的数据

    但是如果buffer里面此时没有数据,那当然不会执行refresh操作咯,每秒创建换一个空的segment file,如果buffer里面有数据,默认1秒钟执行一次refresh操作,刷入一个新的segment file操作系统里面,磁盘文件其实都有一个东西,叫做os cache,操作系统缓存,就是说数据写入磁盘文件之前,会先进入os cache,先进入操作系统级别的一个内存缓存中去

    只要buffer中的数据被refresh操作,刷入os cache中,就代表这个数据就可以被搜索到了

    为什么叫es是准实时的?NRTnear real-time,准实时。默认是每隔1refresh一次的,所以es是准实时的,因为写入的数据1秒之后才能被看到。

    可以通过esrestful api或者java api,手动执行一次refresh操作,就是手动将buffer中的数据刷入os cache中,让数据立马就可以被搜索到 

    只要数据被输入os cache中,buffer就会被清空了,因为不需要保留buffer了,数据在translog里面已经持久化到磁盘去一份了

    3)只要数据进入os cache,此时就可以让这个segment file的数据对外提供搜索了

    4)重复1~3步骤,新的数据不断进入buffertranslog,不断将buffer数据写入一个又一个新的segment file中去,每次refreshbuffer清空,translog保留。随着这个过程推进,translog会变得越来越大。当translog达到一定长度的时候,就会触发commit操作。

    buffer中的数据,倒是好,每隔1秒就被刷到os cache中去,然后这个buffer就被清空了。所以说这个buffer的数据始终是可以保持住不会填满es进程的内存的。 

    每次一条数据写入buffer,同时会写入一条日志到translog日志文件中去,所以这个translog日志文件是不断变大的,当translog日志文件大到一定程度的时候,就会执行commit操作。

    5commit操作发生第一步,就是将buffer中现有数据refreshos cache中去,清空buffer

    6)将一个commit point写入磁盘文件,里面标识着这个commit point对应的所有segment file

    7)强行将os cache中目前所有的数据都fsync到磁盘文件中去

     

    translog日志文件的作用是什么?就是在你执行commit操作之前,数据要么是停留在buffer中,要么是停留在os cache中,无论是buffer还是os cache都是内存,一旦这台机器死了,内存中的数据就全丢了。

    所以需要将数据对应的操作写入一个专门的日志文件,translog日志文件中,一旦此时机器宕机,再次重启的时候,es会自动读取translog日志文件中的数据,恢复到内存bufferos cache中去。

    commit操作:1、写commit point2、将os cache数据fsync强刷到磁盘上去;3、清空translog日志文件

    8)将现有的translog清空,然后再次重启启用一个translog,此时commit操作完成。默认每隔30分钟会自动执行一次commit,但是如果translog过大,也会触发commit。整个commit的过程,叫做flush操作。我们可以手动执行flush操作,就是将所有os cache数据刷到磁盘文件中去。

    不叫做commit操作,flush操作。es中的flush操作,就对应着commit的全过程。我们也可以通过es api,手动执行flush操作,手动将os cache中的数据fsync强刷到磁盘上去,记录一个commit point,清空translog日志文件。

    9translog其实也是先写入os cache的,默认每隔5秒刷一次到磁盘中去,所以默认情况下,可能有5秒的数据会仅仅停留在buffer或者translog文件的os cache中,如果此时机器挂了,会丢失5秒钟的数据。但是这样性能比较好,最多丢5秒的数据。也可以将translog设置成每次写操作必须是直接fsync到磁盘,但是性能会差很多。

    实际上你在这里,如果面试官没有问你es丢数据的问题,你可以在这里给面试官炫一把,你说,其实es第一是准实时的,数据写入1秒后可以搜索到;可能会丢失数据的,你的数据有5秒的数据,停留在buffertranslog os cachesegment file os cache中,有5秒的数据不在磁盘上,此时如果宕机,会导致5秒的数据丢失。

    如果你希望一定不能丢失数据的话,你可以设置个参数,官方文档,百度一下。每次写入一条数据,都是写入buffer,同时写入磁盘上的translog,但是这会导致写性能、写入吞吐量会下降一个数量级。本来一秒钟可以写2000条,现在你一秒钟只能写200条,都有可能。

     

    10)如果是删除操作,commit的时候会生成一个.del文件,里面将某个doc标识为deleted状态,那么搜索的时候根据.del文件就知道这个doc被删除了

    11)如果是更新操作,就是将原来的doc标识为deleted状态,然后新写入一条数据

    12buffer每次refresh一次,就会产生一个segment file,所以默认情况下是1秒钟一个segment filesegment file会越来越多,此时会定期执行merge

    13)每次merge的时候,会将多个segment file合并成一个,同时这里会将标识为deleteddoc给物理删除掉,然后将新的segment file写入磁盘,这里会写一个commit point,标识所有新的segment file,然后打开segment file供搜索使用,同时删除旧的segment file

     ES里的写流程,有4个底层的核心概念,refreshflushtranslogmerge

    segment file多到一定程度的时候,es就会自动触发merge操作,将多个segment filemerge成一个segment file

     

    3.es在数据量很大的情况下(数十亿级别)如何提高查询效率啊?

    1)性能优化的杀手锏——filesystem cache

    os cache,操作系统的缓存。

    你往es里写的数据,实际上都写到磁盘文件里去了,磁盘文件里的数据操作系统会自动将里面的数据缓存到os cache里面去。

    es的搜索引擎严重依赖于底层的filesystem cache,你如果给filesystem cache更多的内存,尽量让内存可以容纳所有的indx segment file索引数据文件,那么你搜索的时候就基本都是走内存的,性能会非常高。

    性能差距可以有大,我们之前很多的测试和压测,如果走磁盘一般肯定上秒,搜索性能绝对是秒级别的,1秒,5秒,10秒。但是如果是走filesystem cache,是走纯内存的,那么一般来说性能比走磁盘要高一个数量级,基本上就是毫秒级的,从几毫秒到几百毫秒不等。

     elastcisearch减少数据量仅仅放要用于搜索的几个关键字段即可,尽量写入es的数据量跟es机器的filesystem cache是差不多的就可以了;其他不用来检索的数据放hbase里,或mysql

     所以之前有些学员也是问,我也是跟他们说,尽量在es里,就存储必须用来搜索的数据,比如说你现在有一份数据,有100个字段,其实用来搜索的只有10个字段,建议是将10个字段的数据,存入es,剩下90个字段的数据,可以放mysqlhadoop hbase,都可以,这样的话,es数据量很少,10个字段的数据,都可以放内存,就用来搜索,搜索出来一些id,通过idmysqlhbase里面去查询明细的数据。

    2)数据预热

    假如说,哪怕是你就按照上述的方案去做了,es集群中每个机器写入的数据量还是超过了filesystem cache一倍,比如说你写入一台机器60g数据,结果filesystem cache30g,还是有30g数据留在了磁盘上。

    举个例子,就比如说,微博,你可以把一些大v,平时看的人很多的数据给提前你自己后台搞个系统,每隔一会儿,你自己的后台系统去搜索一下热数据,刷到filesystem cache里去,后面用户实际上来看这个热数据的时候,他们就是直接从内存里搜索了,很快。

    电商,你可以将平时查看最多的一些商品,比如说iphone 8,热数据提前后台搞个程序,每隔1分钟自己主动访问一次,刷到filesystem cache里去。对于那些你觉得比较热的,经常会有人访问的数据,最好做一个专门的缓存预热子系统,就是对热数据,每隔一段时间,你就提前访问一下,让数据进入filesystem cache里面去。这样期待下次别人访问的时候,一定性能会好一些。

    3)冷热分离

    关于es性能优化,数据拆分,我之前说将大量不搜索的字段,拆分到别的存储中去,这个就是类似于后面我最后要讲的mysql分库分表的垂直拆分。

    es可以做类似于mysql的水平拆分,就是说将大量的访问很少,频率很低的数据,单独写一个索引,然后将访问很频繁的热数据单独写一个索引

    你最好是将冷数据写入一个索引中,然后热数据写入另外一个索引中,这样可以确保热数据在被预热之后,尽量都让他们留在filesystem os cache里,别让冷数据给冲刷掉。

    你看,假设你有6台机器,2个索引,一个放冷数据,一个放热数据,每个索引3shard,3台机器放热数据index;另外3台机器放冷数据index,然后这样的话,你大量的时候是在访问热数据index,热数据可能就占总数据量的10%,此时数据量很少,几乎全都保留在filesystem cache里面了,就可以确保热数据的访问性能是很高的。但是对于冷数据而言,是在别的index里的,跟热数据index都不再相同的机器上,大家互相之间都没什么联系了。如果有人访问冷数据,可能大量数据是在磁盘上的,此时性能差点,就10%的人去访问冷数据;90%的人在访问热数据。

    4document模型设计

    es里面的复杂的关联查询,复杂的查询语法,尽量别用,一旦用了性能一般都不太好。

    写入esjava系统里,就完成关联,将关联好的数据直接写入es中,搜索的时候,就不需要利用es的搜索语法去完成join来搜索了

    document模型设计是非常重要的,很多操作,不要在搜索的时候才想去执行各种复杂的乱七八糟的操作。es能支持的操作就是那么多,不要考虑用es做一些它不好操作的事情。如果真的有那种操作,尽量在document模型设计的时候,写入的时候就完成。另外对于一些太复杂的操作,比如joinnestedparent-child搜索都要尽量避免,性能都很差的。

    1)在写入数据的时候,就设计好模型,加几个字段,把处理好的数据写入加的字段里面

    2)自己用java程序封装,es能做的,用es来做,搜索出来的数据,在java程序里面去做,比如说我们,基于es,用java封装一些特别复杂的操作。

    5)分页性能优化

    es的分页是较坑的,为啥呢?举个例子吧,假如你每页是10条数据,你现在要查询第100页,实际上是会把每个shard上存储的前1000条数据都查到一个协调节点上,如果你有个5shard,那么就有5000条数据,接着协调节点对这5000条数据进行一些合并、处理,再获取到最终第100页的10条数据。

    我们之前也是遇到过这个问题,用es作分页,前几页就几十毫秒,翻到10页之后,几十页的时候,基本上就要5~10秒才能查出来一页数据了。

    1)不允许深度分页/默认深度分页性能很惨

    你系统不允许他翻那么深的页,pm,默认翻的越深,性能就越差

    2)类似于app里的推荐商品不断下拉出来一页一页的

    类似于微博中,下拉刷微博,刷出来一页一页的,你可以用scroll api,自己百度

    scroll会一次性给你生成所有数据的一个快照,然后每次翻页就是通过游标移动,获取下一页下一页这样子,性能会比上面说的那种分页性能也高很多很多。

    针对这个问题,你可以考虑用scroll来进行处理,scroll的原理实际上是保留一个数据快照,然后在一定时间内,你如果不断的滑动往后翻页的时候,类似于你现在在浏览微博,不断往下刷新翻页。那么就用scroll不断通过游标获取下一页数据,这个性能是很高的,比es实际翻页要好的多的多。

    但是唯一的一点就是,这个适合于那种类似微博下拉翻页的,不能随意跳到任何一页的场景。同时这个scroll是要保留一段时间内的数据快照的,你需要确保用户不会持续不断翻页翻几个小时。无论翻多少页,性能基本上都是毫秒级的,因为scroll api是只能一页一页往后翻的,是不能说,先进入第10页,然后去120页,回到58页,不能随意乱跳页。所以现在很多产品,都是不允许你随意翻页的,app,也有一些网站,做的就是你只能往下拉,一页一页的翻。

    4.es生产集群的部署架构是什么?每个索引的数据量大概有多少?每个索引大概有多少个分片?

    1es生产集群我们部署了5台机器,每台机器是664G的,集群总内存是320G

    2)我们es集群的日增量数据大概是2000万条,每天日增量数据大概是500MB,每月增量数据大概是6亿,15G。目前系统已经运行了几个月,现在es集群里数据总量大概是100G右。

    3)目前线上有5个索引(这个结合你们自己业务来,看看自己有哪些数据可以放es的),每个索引的数据量大概是20G,所以这个数据量之内,我们每个索引分配的是8shard,比默认的5shard多了3shard

    大概就这么说一下就行了。

     

     

     

  • 相关阅读:
    Error: could not open `C:Program FilesJavajre6libi386jvm.cfg'
    异常:java.lang.IllegalStateException: Ambiguous handler methods mapped for HTTP path '/app/userInfoMaint/getProvince.do'
    解析Java反射
    Cause: java.sql.SQLException: 无效的列索引
    Internet Explorer 无法打开该 Internet 站点,请求的站点不可用或无法找到
    解决The JSP specification requires that an attribute name is preceded by whitespace问题
    pl/sql的to_char和to_date
    oracle 在xml中批量插入,批量修改及多组条件查询
    时间转换模板
    Java网络编程从入门到精通(5):使用InetAddress类的getHostName方法获得域名
  • 原文地址:https://www.cnblogs.com/JohnsonLiu/p/10490978.html
Copyright © 2020-2023  润新知