• Elasticsearch是一个分布式可扩展的实时搜索和分析引擎,elasticsearch安装配置及中文分词


    http://fuxiaopang.gitbooks.io/learnelasticsearch/content/  (中文)

     

    在Elasticsearch中,文档术语一种类型(type),各种各样的类型存在于一个索引中。你也可以通过类比传统的关系数据库得到一些大致的相似之处:

    关系数据库     ⇒ 数据库 ⇒ 表    ⇒ 行    ⇒ 列(Columns)
    Elasticsearch  ⇒ 索引   ⇒ 类型  ⇒ 文档  ⇒ 字段(Fields)
    一个Elasticsearch集群可以包含多个索引(数据库),也就是说其中包含了很多类型(表)。这些类型中包含了很多的文档(行),然后每个文档中又包含了很多的字段(列)

    Elasticsearch是一个分布式可扩展的实时搜索和分析引擎。它能帮助你搜索、分析和浏览数据,而往往大家并没有在某个项目一开始就预料到需要这些功能。Elasticsearch之所以出现就是为了重新赋予硬盘中看似无用的原始数据新的活力。

    无论你是需要全文搜索、结构化数据的实时统计,还是两者的结合,这本指南都会帮助你了解其中最基本的概念,从最基本的操作开始学习Elasticsearch。之后,我们还会逐渐开始探索更加复杂的搜索技术,你可以根据自身的学习的步伐。

    Elasticsearch并不是单纯的全文搜索这么简单。我们将向你介绍讲解结构化搜索、统计、查询过滤、地理定位、自动完成以及你是不是要查找的提示。我们还将探讨如何给数据建模能提升Elasticsearch的性能,以及在生产环境中如何配置、监视你的集群。

    ElasticSearch是一个基于Lucene构建的开源,分布式,RESTful搜索引擎。设计用于云计算中,能够达到实时搜索,稳定,可靠,快速,安装使用方便。支持通过HTTP使用JSON进行数据索引。 

      我们建立一个网站或应用程序,并要添加搜索功能,令我们受打击的是:搜索工作是很难的。我们希望我们的搜索解决方案要快,我们希望 有一个零配置和一个完全免费的搜索模式,我们希望能够简单地使用JSON通过HTTP的索引数据,我们希望我们的搜索服务器始终可用,我们希望能够一台开 始并扩展到数百,我们要实时搜索,我们要简单的多租户,我们希望建立一个云的解决方案。Elasticsearch旨在解决所有这些问题和更多的。

    安装

      以windows操作系统和ES0.19.7版本为例:

     

      ①下载elasticsearch-0.19.7.zip

     

      ②直接解压至某目录,设置该目录为ES_HOME环境变量

     

      ③安装JDK,并设置JAVA_HOME环境变量

     

      ④在windows下,运行 %ES_HOME%inelasticsearch.bat即可运行

    分布式搜索elasticsearch单机与服务器环境搭建

          先到http://www.elasticsearch.org/download/下 载最新版的elasticsearch运行包,本文写时最新的是0.19.1,作者是个很勤快的人,es的更新很频繁,bug修复得很快。下载完解开有三 个包:bin是运行的脚本,config是设置文件,lib是放依赖的包。如果你要装插件的话就要多新建一个plugins的文件夹,把插件放到这个文件 夹中。

    1.单机环境:

    单机版的elasticsearch运行很简单,linux下直接 bin/elasticsearch就运行了,windows运行bin/elasticsearch.bat。如果是在局域网中运行elasticsearch集群也是很简单的,只要cluster.name设置一致,并且机器在同一网段下,启动的es会自动发现对方,组成集群。

    2.服务器环境:

    如果是在服务器上就可以使用elasticsearch-servicewrapper这个es插件,它支持通过参数,指定是在后台或前台运行es,并且支持启动,停止,重启es服务(默认es脚本只能通过ctrl+c关闭es)。使用方法是到https://github.com/elasticsearch/elasticsearch-servicewrapper下载service文件夹,放到es的bin目录下。下面是命令集合:
    bin/service/elasticsearch +
    console 在前台运行es
    start 在后台运行es
    stop 停止es
    install 使es作为服务在服务器启动时自动启动
    remove 取消启动时自动启动

    在service目录下有个elasticsearch.conf配置文件,主要是设置一些java运行环境参数,其中比较重要的是下面的

    参数:

    #es的home路径,不用用默认值就可以
    set.default.ES_HOME=<Path to ElasticSearch Home>

    #分配给es的最小内存
    set.default.ES_MIN_MEM=256

    #分配给es的最大内存
    set.default.ES_MAX_MEM=1024


    # 启动等待超时时间(以秒为单位)
    wrapper.startup.timeout=300

    # 关闭等待超时时间(以秒为单位)

    wrapper.shutdown.timeout=300

    # ping超时时间(以秒为单位)

    wrapper.ping.timeout=300

    安装插件

      以head插件为例:

     

      联网时,直接运行%ES_HOME%inplugin -install mobz/elasticsearch-head

     

      不联网时,下载elasticsearch-head的zipball的master包,把内容解压到%ES_HOME%pluginhead\_site目录下,[该插件为site类型插件]

     

      安装完成,重启服务,在浏览器打开 http://localhost:9200/_plugin/head/ 即可

    ES概念

      cluster

     

      代表一个集群,集群中有多个节点,其中有一个为主节点,这个主节点是可以通过选举产生的,主从节点是对于集群内部来说 的。es的一个概念就是去中心化,字面上理解就是无中心节点,这是对于集群外部来说的,因为从外部来看es集群,在逻辑上是个整体,你与任何一个节点的通 信和与整个es集群通信是等价的。

     

      shards

     

      代表索引分片,es可以把一个完整的索引分成多个分片,这样的好处是可以把一个大的索引拆分成多个,分布到不同的节点上。构成分布式搜索。分片的数量只能在索引创建前指定,并且索引创建后不能更改。

     

      replicas

     

      代表索引副本,es可以设置多个索引的副本,副本的作用一是提高系统的容错性,当个某个节点某个分片损坏或丢失时可以从副本中恢复。二是提高es的查询效率,es会自动对搜索请求进行负载均衡。

     

      recovery

     

      代表数据恢复或叫数据重新分布,es在有节点加入或退出时会根据机器的负载对索引分片进行重新分配,挂掉的节点重新启动时也会进行数据恢复。

     

      river

     

      代表es的一个数据源,也是其它存储方式(如:数据库)同步数据到es的一个方法。它是以插件方式存在的一个es服 务,通过读取river中的数据并把它索引到es中,官方的river有couchDB的,RabbitMQ的,Twitter的,Wikipedia 的。

     

      gateway

     

      代表es索引的持久化存储方式,es默认是先把索引存放到内存中,当内存满了时再持久化到硬盘。当这个es集群关闭再 重新启动时就会从gateway中读取索引数据。es支持多种类型的gateway,有本地文件系统(默认),分布式文件系统,Hadoop的HDFS和 amazon的s3云存储服务。

     

      discovery.zen

     

      代表es的自动发现节点机制,es是一个基于p2p的系统,它先通过广播寻找存在的节点,再通过多播协议来进行节点之间的通信,同时也支持点对点的交互。

     

      Transport

     

      代表es内部节点或集群与客户端的交互方式,默认内部是使用tcp协议进行交互,同时它支持http协议(json格式)、thrift、servlet、memcached、zeroMQ等的传输协议(通过插件方式集成)。

    分布式搜索elasticsearch中文分词集成

    elasticsearch官方只提供smartcn这个中文分词插件,效果不是很好,好在国内有medcl大神(国内最早研究es的人之一)写的两个中文分词插件,一个是ik的,一个是mmseg的,下面分别介绍下两者的用法,其实都差不多的,先安装插件,命令行:
    安装ik插件:

    plugin -install medcl/elasticsearch-analysis-ik/1.1.0  

    下载ik相关配置词典文件到config目录

    1. cd config  
    2. wget http://github.com/downloads/medcl/elasticsearch-analysis-ik/ik.zip --no-check-certificate  
    3. unzip ik.zip  
    4. rm ik.zip  

    安装mmseg插件:

    1. bin/plugin -install medcl/elasticsearch-analysis-mmseg/1.1.0  

    下载相关配置词典文件到config目录

    1. cd config  
    2. wget http://github.com/downloads/medcl/elasticsearch-analysis-mmseg/mmseg.zip --no-check-certificate  
    3. unzip mmseg.zip  
    4. rm mmseg.zip  

    分词配置

    ik分词配置,在elasticsearch.yml文件中加上

    1. index:  
    2.   analysis:                     
    3.     analyzer:        
    4.       ik:  
    5.           alias: [ik_analyzer]  
    6.           type: org.elasticsearch.index.analysis.IkAnalyzerProvider  

    1. index.analysis.analyzer.ik.type : “ik”  

    这两句的意义相同
    mmseg分词配置,也是在在elasticsearch.yml文件中

    1. index:  
    2.   analysis:  
    3.     analyzer:  
    4.       mmseg:  
    5.           alias: [news_analyzer, mmseg_analyzer]  
    6.           type: org.elasticsearch.index.analysis.MMsegAnalyzerProvider  

    1. index.analysis.analyzer.default.type : "mmseg"  

    mmseg分词还有些更加个性化的参数设置如下

    1. index:  
    2.   analysis:  
    3.     tokenizer:  
    4.       mmseg_maxword:  
    5.           type: mmseg  
    6.           seg_type: "max_word"  
    7.       mmseg_complex:  
    8.           type: mmseg  
    9.           seg_type: "complex"  
    10.       mmseg_simple:  
    11.           type: mmseg  
    12.           seg_type: "simple"  

    这样配置完后插件安装完成,启动es就会加载插件。

    定义mapping

    在添加索引的mapping时就可以这样定义分词器

    1. {  
    2.    "page":{  
    3.       "properties":{  
    4.          "title":{  
    5.             "type":"string",  
    6.             "indexAnalyzer":"ik",  
    7.             "searchAnalyzer":"ik"  
    8.          },  
    9.          "content":{  
    10.             "type":"string",  
    11.             "indexAnalyzer":"ik",  
    12.             "searchAnalyzer":"ik"  
    13.          }  
    14.       }  
    15.    }  
    16. }  

    indexAnalyzer为索引时使用的分词器,searchAnalyzer为搜索时使用的分词器。

    java mapping代码如下:

    1. XContentBuilder content = XContentFactory.jsonBuilder().startObject()  
    2.         .startObject("page")  
    3.           .startObject("properties")         
    4.             .startObject("title")  
    5.               .field("type", "string")             
    6.               .field("indexAnalyzer", "ik")  
    7.               .field("searchAnalyzer", "ik")  
    8.             .endObject()   
    9.             .startObject("code")  
    10.               .field("type", "string")           
    11.               .field("indexAnalyzer", "ik")  
    12.               .field("searchAnalyzer", "ik")  
    13.             .endObject()       
    14.           .endObject()  
    15.          .endObject()  
    16.        .endObject()  

    定义完后操作索引就会以指定的分词器来进行分词。

     附:

    ik分词插件项目地址:https://github.com/medcl/elasticsearch-analysis-ik

    mmseg分词插件项目地址:https://github.com/medcl/elasticsearch-analysis-mmseg

    如果觉得配置麻烦,也可以下载个配置好的es版本,地址如下:https://github.com/medcl/elasticsearch-rtf

    elasticsearch的基本用法


    最大的特点: 
    1. 数据库的 database, 就是  index 
    2. 数据库的 table,  就是 tag 
    3. 不要使用browser, 使用curl来进行客户端操作.  否则会出现 java heap ooxx... 

    curl:  -X 后面跟 RESTful :  GET, POST ... 
    -d 后面跟数据。 (d = data to send) 

    1. create:  

    指定 ID 来建立新记录。 (貌似PUT, POST都可以) 
    $ curl -XPOST localhost:9200/films/md/2 -d ' 
    { "name":"hei yi ren", "tag": "good"}' 

    使用自动生成的 ID 建立新纪录: 
    $ curl -XPOST localhost:9200/films/md -d ' 
    { "name":"ma da jia si jia3", "tag": "good"}' 

    2. 查询: 
    2.1 查询所有的 index, type: 
    $ curl localhost:9200/_search?pretty=true 

    2.2 查询某个index下所有的type: 
    $ curl localhost:9200/films/_search 

    2.3 查询某个index 下, 某个 type下所有的记录: 
    $ curl localhost:9200/films/md/_search?pretty=true 

    2.4 带有参数的查询:  
    $ curl localhost:9200/films/md/_search?q=tag:good 
    {"took":7,"timed_out":false,"_shards":{"total":5,"successful":5,"failed":0},"hits":{"total":2,"max_score":1.0,"hits":[{"_index":"film","_type":"md","_id":"2","_score":1.0, "_source" : 
    { "name":"hei yi ren", "tag": "good"}},{"_index":"film","_type":"md","_id":"1","_score":0.30685282, "_source" : 
    { "name":"ma da jia si jia", "tag": "good"}}]}} 

    2.5 使用JSON参数的查询: (注意 query 和 term 关键字) 
    $ curl localhost:9200/film/_search -d ' 
    {"query" : { "term": { "tag":"bad"}}}' 

    3. update  
    $ curl -XPUT localhost:9200/films/md/1 -d { ...(data)... } 

    4. 删除。 删除所有的: 
    $ curl -XDELETE localhost:9200/films
  • 相关阅读:
    2.1.1 Speed Limit
    2.1.2 骑自行车的最短时间
    1.3.1提高实数精度的范例
    1.2.2一个数可以有多少种用连续素数之和表示
    求二倍关系的个数 1.2.1
    求平均值
    原生JS 购物车及购物页面的cookie使用
    基于Jquery的商城商品图片的放大镜效果(非组件)
    商城商品购买数量增减的完美JS效果
    弹性布局各种坑爹兼容
  • 原文地址:https://www.cnblogs.com/fx2008/p/4170996.html
Copyright © 2020-2023  润新知