• ElasticSearch应用


     

    1.什么是ElasticSearch

    Elaticsearch,简称为es, es是一个开源的高扩展的分布式全文检索引擎,它可以近乎实时的存储、检索数据;本
    身扩展性很好,可以扩展到上百台服务器,处理PB级别的数据。es也使用Java开发并使用Lucene作为其核心来实
    现所有索引和搜索的功能,但是它的目的是通过简单的RESTful API来隐藏Lucene的复杂性,从而让全文搜索变得
    简单。
     
    2.ElasticSearch对比solr
    Solr 利用 Zookeeper 进行分布式管理,而 Elasticsearch 自身带有分布式协调管理功能;
    Solr 支持更多格式的数据,而 Elasticsearch 仅支持json文件格式;
    Solr 官方提供的功能更多,而 Elasticsearch 本身更注重于核心功能,高级功能多有第三方插件提供;
    Solr 在传统的搜索应用中表现好于 Elasticsearch,但在处理实时搜索应用时效率明显低于 Elasticsearch
     
     
    3. ElasticSearch使用案例
    2013年初,GitHub抛弃了Solr,采取ElasticSearch 来做PB级的搜索。 “GitHub使用ElasticSearch搜索20TB
    的数据,包括13亿文件和1300亿行代码”
    维基百科:启动以elasticsearch为基础的核心搜索架构
    SoundCloud:“SoundCloud使用ElasticSearch为1.8亿用户提供即时而精准的音乐搜索服务”
    百度:百度目前广泛使用ElasticSearch作为文本数据分析,采集百度所有服务器上的各类指标数据及用户自
    定义数据,通过对各种数据进行多维分析展示,辅助定位分析实例异常或业务层面异常。目前覆盖百度内部
    20多个业务线(包括casio、云分析、网盟、预测、文库、直达号、钱包、风控等),单集群最大100台机
    器,200个ES节点,每天导入30TB+数据
    新浪使用ES 分析处理32亿条实时日志
    阿里使用ES 构建挖财自己的日志采集和分析体系
     

    Elasticsearch 是一个分布式的 RESTful 风格的搜索和数据分析引擎。

    • 查询 : Elasticsearch 允许执行和合并多种类型的搜索 — 结构化、非结构化、地理位置、度量指标 — 搜索方式随心而变。
    • 分析 : 找到与查询最匹配的十个文档是一回事。但是如果面对的是十亿行日志,又该如何解读呢?Elasticsearch 聚合让您能够从大处着眼,探索数据的趋势和模式。
    • 速度 : Elasticsearch 很快。真的,真的很快。
    • 可扩展性 : 可以在笔记本电脑上运行。 也可以在承载了 PB 级数据的成百上千台服务器上运行。
    • 弹性 : Elasticsearch 运行在一个分布式的环境中,从设计之初就考虑到了这一点。
    • 灵活性 : 具备多个案例场景。数字、文本、地理位置、结构化、非结构化。所有的数据类型都欢迎。
    • HADOOP & SPARK : Elasticsearch + Hadoop

     

    1. sticsearch/ loghide /Kibana堆栈的一部分)来构建自定义仪表板,以可视化对您来说很重要的数据的各个方面。此外,还可以使用Elasticsearch聚合功能对数据执行复杂的业务智能查询。

    基本概念

    Near Realtime (NRT)

    Elasticsearch是一个近乎实时的搜索平台。这意味着从索引文档到可以搜索的时间只有轻微的延迟(通常是1秒)。

    Cluster

    集群是一个或多个节点(服务器)的集合,它们共同保存你的整个数据,并提供跨所有节点的联合索引和搜索功能。一个集群由一个唯一的名称标识,默认这个唯一标识的名称是"elasticsearch"。这个名称很重要,因为如果节点被设置为按其名称加入集群,那么节点只能是集群的一部分。

    确保不要在不同的环境中用相同的集群名称,否则可能导致节点加入到错误的集群中。例如,你可以使用"logging-dev", "logging-test", "logging-prod"分别用于开发、测试和正式集群的名字。

    Node

    节点是一个单独的服务器,它是集群的一部分,存储数据,并参与集群的索引和搜索功能。就像集群一样,节点由一个名称来标识,默认情况下,该名称是在启动时分配给节点的随机通用唯一标识符(UUID)。如果不想用默认的节点名,可以定义任何想要的节点名。这个名称对于管理来说很重要,因为你希望识别网络中的哪些服务器对应于你的Elasticsearch集群中的哪些节点。

    一个节点可以通过配置集群名称来加入到一个特定的集群中。默认情况下,每个节点都被设置加入到一个名字叫"elasticsearch"的集群中,这就意味着如果你启动了很多个节点,并且假设它们彼此可以互相发现,那么它们将自动形成并加入到一个名为"elasticsearch"的集群中。

    一个集群可以有任意数量的节点。此外,如果在你的网络上当前没有运行任何节点,那么此时启动一个节点将默认形成一个单节点的名字叫"elasticsearch"的集群。

    Index

    索引是具有某种相似特征的文档的集合。例如,你可以有一个顾客数据索引,产品目录索引和订单数据索引。索引有一个名称(必须是小写的)标识,该名称用于在对其中的文档执行索引、搜索、更新和删除操作时引用索引。

    Document

    文档是可以被索引的基本信息单元。文档用JSON表示。

    Shards & Replicas

    一个索引可能存储大量数据,这些数据可以超过单个节点的硬件限制。例如,一个包含10亿条文档占用1TB磁盘空间的索引可能不适合在单个节点上,或者可能太慢而不能单独处理来自单个节点的搜索请求。

    为了解决这个问题,Elasticsearch提供了将你的索引细分为多个碎片(或者叫分片)的能力。在创建索引时,可以简单地定义所需的分片数量。每个分片本身就是一个功能完全独立的“索引”,可以驻留在集群中的任何节点上。

    分片之所以重要,主要有两个原因:

    • 它允许你水平地分割/扩展内容卷
    • 它允许你跨分片(可能在多个节点上)分布和并行操作,从而提高性能和吞吐量

    在一个网络/云环境中随时都有可能出现故障,强烈推荐你有一个容灾机制。Elasticsearch允许你将一个或者多个索引分片复制到其它地方,这被称之为副本。

    复制之所以重要,有两个主要原因:

    • 它提供了在一个shard/node失败是的高可用性。出于这个原因,很重要的一个点是一个副本从来不会被分配到与它复制的原始分片相同节点上。也就是说,副本是放到另外的节点上的。
    • 它允许扩展搜索量/吞吐量,因为搜索可以在所有副本上并行执行。

    总而言之,每个索引都可以分割成多个分片。索引也可以被复制零(意味着没有副本)或更多次。一旦被复制,每个索引都将具有主分片(被复制的原始分片)和副本分片(主分片的副本)。在创建索引时,可以为每个索引定义分片和副本的数量。创建索引后,您可以随时动态地更改副本的数量,但不能更改事后分片的数量。

    在默认情况下,Elasticsearch中的每个索引都分配了5个主分片和1个副本,这意味着如果集群中至少有两个节点,那么索引将有5个主分片和另外5个副本分片(PS:这5个副本分片组成1个完整副本),每个索引总共有10个分片。

    (画外音:副本是针对索引而言的,同时需要注意索引和节点数量没有关系,我们说2个副本指的是索引被复制了2次,而1个索引可能由5个分片组成,那么在这种情况下,集群中的分片数应该是 5 × (1 + 2) = 15 )

    安装

    tar -zxf elasticsearch-6.3.2.tar.gz
    cd elasticsearch-6.3.2/bin
    ./elasticsearch
    注意:不能以root用户运行elasticsearch

    By default, Elasticsearch uses port 9200 to provide access to its REST API. This port is configurable if necessary.

    检查Elasticsearch是否正在运行:

    curl http://localhost:9200/

    The REST API

    集群健康

    请求:

    curl -X GET "localhost:9200/_cat/health?v"

    响应:

    epoch      timestamp cluster       status node.total node.data shards pri relo init unassign pending_tasks max_task_wait_time active_shards_percent
    1533625274 15:01:14  elasticsearch green           1         1      0   0    0    0        0             0                  -                100.0%

    我们可以看到,我们命名为“elasticsearch”的集群现在是green状态。

    无论何时我们请求集群健康时,我们会得到green, yellow, 或者 red 这三种状态。

    • Green : everything is good(一切都很好)(所有功能正常)
    • Yellow : 所有数据都是可用的,但有些副本还没有分配(所有功能正常)
    • Red : 有些数据不可用(部分功能正常)

    从上面的响应中我们可以看到,集群"elasticsearch"总共有1个节点,0个分片因为还没有数据。

    下面看一下集群的节点列表:

    请求:

    curl -X GET "localhost:9200/_cat/nodes?v"

    响应:

    ip        heap.percent ram.percent cpu load_1m load_5m load_15m node.role master name
    127.0.0.1           15          53   0    0.03    0.03     0.05 mdi       *      Px524Ts

    可以看到集群中只有一个节点,它的名字是“Px524Ts”

    查看全部索引

    请求:

    curl -X GET "localhost:9200/_cat/indices?v"

    响应:

    health status index uuid pri rep docs.count docs.deleted store.size pri.store.size

    上面的输出意味着:我们在集群中没有索引

    创建一个索引

    现在,我们创建一个名字叫“customer”的索引,然后查看索引:

    请求:

    curl -X PUT "localhost:9200/customer?pretty"

    (画外音:pretty的意思是响应(如果有的话)以JSON格式返回)

    响应:

    {
      "acknowledged" : true,
      "shards_acknowledged" : true,
      "index" : "customer"
    }

    请求:

    curl -X GET "localhost:9200/_cat/indices?v"

    响应:

    health status index    uuid                   pri rep docs.count docs.deleted store.size pri.store.size
    yellow open   customer rG5fxdruTNmD-bdYIF5zOg   5   1          0            0      1.1kb          1.1kb

    结果的第二行告诉我们,我们现在有叫"customer"的索引,并且他有5个主分片和1个副本(默认是1个副本),有0个文档。

    可能你已经注意到这个"customer"索引的健康状态是yellow。回想一下我们之前的讨论,yellow意味着一些副本(尚未)被分配。

    之所以会出现这种情况,是因为Elasticsearch默认情况下为这个索引创建了一个副本。由于目前我们只有一个节点在运行,所以直到稍后另一个节点加入集群时,才会分配一个副本(对于高可用性)。一旦该副本分配到第二个节点上,该索引的健康状态将变为green。

    索引并查询一个文档

    现在,让我们put一些数据到我们的"customer"索引:

    请求:

    curl -X PUT "localhost:9200/customer/_doc/1?pretty" -H 'Content-Type: application/json' -d'{"name": "John Doe"}'

    响应:

     
    {
      "_index" : "customer",
      "_type" : "_doc",
      "_id" : "1",
      "_version" : 1,
      "result" : "created",
      "_shards" : {
        "total" : 2,
        "successful" : 1,
        "failed" : 0
      },
      "_seq_no" : 0,
      "_primary_term" : 1
    }
     

    从上面的响应可以看到,我们在"customer"索引下成功创建了一个文档。这个文档还有一个内部id为1,这是我们在创建的时候指定的。

    需要注意的是,Elasticsearch并不要求你在索引文档之前就先创建索引,然后才能将文档编入索引。在前面的示例中,如果事先不存在"customer"索引,Elasticsearch将自动创建"customer"索引。

    (画外音:也就是说,在新建文档的时候如果指定的索引不存在则会自动创建相应的索引)

    现在,让我重新检索这个文档:

    请求:

    curl -X GET "localhost:9200/customer/_doc/1?pretty"

    响应:

     
    {
      "_index" : "customer",
      "_type" : "_doc",
      "_id" : "1",
      "_version" : 1,
      "found" : true,
      "_source" : {
        "name" : "John Doe"
      }
    }
     

    可以看到除了"found"字段外没什么不同,"_source"字段返回了一个完整的JSON文档。

    删除一个索引

    现在,让我们删除前面创建的索引,然后查看全部索引

    请求:

    curl -X DELETE "localhost:9200/customer?pretty"

    响应:

    {
      "acknowledged" : true
    }

    接下来,查看一下

    curl -X GET "localhost:9200/_cat/indices?v"
    health status index uuid pri rep docs.count docs.deleted store.size pri.store.size

    到现在为止,我们已经学习了创建/删除索引、索引/查询文档这四个命令

    curl -X PUT "localhost:9200/customer"
    curl -X PUT "localhost:9200/customer/_doc/1" -H 'Content-Type: application/json' -d'{"name": "John Doe"}'
    curl -X GET "localhost:9200/customer/_doc/1"
    curl -X DELETE "localhost:9200/customer"

    如果我们仔细研究上面的命令,我们实际上可以看到如何在Elasticsearch中访问数据的模式。这种模式可以概括如下:

    <REST Verb> /<Index>/<Type>/<ID>

    修改数据

    更新文档

    事实上,每当我们执行更新时,Elasticsearch就会删除旧文档,然后索引一个新的文档。

    下面这个例子展示了如何更新一个文档(ID为1),改变name字段为"Jane Doe",同时添加一个age字段:

    请求:

    curl -X POST "localhost:9200/customer/_doc/1/_update?pretty" -H 'Content-Type: application/json' -d'
    {
      "doc": { "name": "Jane Doe", "age": 20 }
    }
    '

    响应:

     
    {
      "_index" : "customer",
      "_type" : "_doc",
      "_id" : "1",
      "_version" : 2,
      "result" : "updated",
      "_shards" : {
        "total" : 2,
        "successful" : 1,
        "failed" : 0
      },
      "_seq_no" : 1,
      "_primary_term" : 1
    }
     

    下面这个例子用脚本来将age增加5

    请求:

    curl -X POST "localhost:9200/customer/_doc/1/_update?pretty" -H 'Content-Type: application/json' -d'
    {
      "script" : "ctx._source.age += 5"
    }
    '

    在上面例子中,ctx._source引用的是当前源文档

    响应:

     
    {
      "_index" : "customer",
      "_type" : "_doc",
      "_id" : "1",
      "_version" : 3,
      "result" : "updated",
      "_shards" : {
        "total" : 2,
        "successful" : 1,
        "failed" : 0
      },
      "_seq_no" : 2,
      "_primary_term" : 1
    }
     

    删除文档

    删除文档相当简单。这个例子展示了如何从"customer"索引中删除ID为2的文档:

    请求:

    curl -X DELETE "localhost:9200/customer/_doc/2?pretty"

    响应:

     
    {
      "_index" : "customer",
      "_type" : "_doc",
      "_id" : "2",
      "_version" : 1,
      "result" : "not_found",
      "_shards" : {
        "total" : 2,
        "successful" : 1,
        "failed" : 0
      },
      "_seq_no" : 0,
      "_primary_term" : 1
    }
     
     
  • 相关阅读:
    hadoop优点和缺点
    HDFS的基本shell操作,hadoop fs操作命令
    HDFS的java操作方式
    HDFS的体系结构和操作
    windows主机无法访问服务器
    用公共key实现无密码ssh
    hadoop2的伪分布部署
    lsof/fuser卸载挂载文件
    编译Apache Hadoop2.2.0源代码
    三十分钟掌握STL
  • 原文地址:https://www.cnblogs.com/danxun/p/12368619.html
Copyright © 2020-2023  润新知