• ES之七:配置文件详解


    安装流程

        http://www.elasticsearch.org/overview/elkdownloads/下载对应系统的安装包(我下载的是tar的),下载解压以后运行es根目录下bin目录的elasticsearch命令(无需配置直接启动),启动后如果能看到类似于下面情况的大量的“INFO”信息。

    复制代码

    (O_O)~/software/elasticsearch/elasticsearch-1.4.0/bin(O_O)./elasticsearch

    [2014-11-17 10:48:15,563][INFO ][node                     ] [bf1] version[1.4.0], pid[21187], build[bc94bd8/2014-11-05T14:26:12Z]
    [2014-11-17 10:48:15,563][INFO ][node                     ] [bf1] initializing ...
    [2014-11-17 10:48:15,630][INFO ][plugins                  ] [bf1] loaded [], sites [head]
    Java HotSpot(TM) Client VM warning: You have loaded library /home/bf/software/elasticsearch/elasticsearch-1.4.0/lib/sigar/libsigar-x86-linux.so which might have disabled stack guard. The VM will try to fix the stack guard now.
    It's highly recommended that you fix the library with 'execstack -c <libfile>', or link it with '-z noexecstack'.
    [2014-11-17 10:48:20,950][INFO ][node                     ] [bf1] initialized
    [2014-11-17 10:48:20,950][INFO ][node                     ] [bf1] starting ...
    [2014-11-17 10:48:21,128][INFO ][transport                ] [bf1] bound_address {inet[/0:0:0:0:0:0:0:0:9300]}, publish_address {inet[/192.168.1.41:9300]}
    [2014-11-17 10:48:21,169][INFO ][discovery                ] [bf1] baifan/umHszDJERCqepk1knkERFw
    [2014-11-17 10:48:24,969][INFO ][cluster.service          ] [bf1] new_master [bf1][umHszDJERCqepk1knkERFw][bf][inet[/192.168.1.41:9300]]{master=true}, reason: zen-disco-join (elected_as_master)
    [2014-11-17 10:48:25,028][INFO ][http                     ] [bf1] bound_address {inet[/0:0:0:0:0:0:0:0:9200]}, publish_address {inet[/192.168.1.41:9200]}
    [2014-11-17 10:48:25,028][INFO ][node                     ] [bf1] started
    [2014-11-17 10:48:25,886][INFO ][gateway                  ] [bf1] recovered [4] indices into cluster_state
    复制代码

    elasticsearch服务端默认端口为9200,启动以后可以在浏览器地址栏输入http://localhost:9200/后会返回一个json信息,类似于下面这样,status等于200则说明启动成功。bf1是我自己设置的当前机器节点名(node.name),cluster_name为baifan,这些都是我自己设置的,elasticsearch本身有默认配置,如果仅仅是测试和了解,可以不设。

    复制代码
    {
      "status" : 200,
      "name" : "bf1",
      "cluster_name" : "baifan",
      "version" : {
        "number" : "1.4.0",
        "build_hash" : "bc94bd81298f81c656893ab1ddddd30a99356066",
        "build_timestamp" : "2014-11-05T14:26:12Z",
        "build_snapshot" : false,
        "lucene_version" : "4.10.2"
      },
      "tagline" : "You Know, for Search"
    }
    复制代码

    配置文件详解

    配置文件位于es根目录的config目录下面,有elasticsearch.yml和logging.yml两个配置,主配置文件是elasticsearch.yml,日志配置文件是logging.yml,elasticsearch调用log4j记录日志,所以日志的配置文件可以按照默认的设置,我来介绍下elasticsearch.yml里面的选项。

    cluster.name: elasticsearch
    配置的集群名称,默认是elasticsearch,es服务会通过广播方式自动连接在同一网段下的es服务,通过多播方式进行通信,同一网段下可以有多个集群,通过集群名称这个属性来区分不同的集群。

    node.name: "Franz Kafka"
    当前配置所在机器的节点名,你不设置就默认随机指定一个name列表中名字,该name列表在es的jar包中config文件夹里name.txt文件中,其中有很多作者添加的有趣名字。

    node.master: true
    指定该节点是否有资格被选举成为node(注意这里只是设置成有资格, 不代表该node一定就是master),默认是true,es是默认集群中的第一台机器为master,如果这台机挂了就会重新选举master。

    node.data: true
    指定该节点是否存储索引数据,默认为true。

    index.number_of_shards: 5
    设置默认索引分片个数,默认为5片。

    index.number_of_replicas: 1
    设置默认索引副本个数,默认为1个副本。如果采用默认设置,而你集群只配置了一台机器,那么集群的健康度为yellow,也就是所有的数据都是可用的,但是某些复制没有被分配(

    健康度可用 curl 'localhost:9200/_cat/health?v' 查看, 分为绿色、黄色或红色。绿色代表一切正常,集群功能齐全,黄色意味着所有的数据都是可用的,但是某些复制没有被分配,红色则代表因为某些原因,某些数据不可用)。

    path.conf: /path/to/conf
    设置配置文件的存储路径,默认是es根目录下的config文件夹。

    path.data: /path/to/data
    设置索引数据的存储路径,默认是es根目录下的data文件夹,可以设置多个存储路径,用逗号隔开,例:

    path.data: /path/to/data1,/path/to/data2

    path.work: /path/to/work
    设置临时文件的存储路径,默认是es根目录下的work文件夹。

    path.logs: /path/to/logs
    设置日志文件的存储路径,默认是es根目录下的logs文件夹

    path.plugins: /path/to/plugins
    设置插件的存放路径,默认是es根目录下的plugins文件夹, 插件在es里面普遍使用,用来增强原系统核心功能。

    bootstrap.mlockall: true
    设置为true来锁住内存不进行swapping。因为当jvm开始swapping时es的效率 会降低,所以要保证它不swap,可以把ES_MIN_MEM和ES_MAX_MEM两个环境变量设置成同一个值,并且保证机器有足够的内存分配给es。 同时也要允许elasticsearch的进程可以锁住内存,linux下启动es之前可以通过`ulimit -l unlimited`命令设置。

    network.bind_host: 192.168.0.1
    设置绑定的ip地址,可以是ipv4或ipv6的,默认为0.0.0.0,绑定这台机器的任何一个ip。


    network.publish_host: 192.168.0.1
    设置其它节点和该节点交互的ip地址,如果不设置它会自动判断,值必须是个真实的ip地址。

    network.host: 192.168.0.1
    这个参数是用来同时设置bind_host和publish_host上面两个参数。

    transport.tcp.port: 9300
    设置节点之间交互的tcp端口,默认是9300。

    transport.tcp.compress: true
    设置是否压缩tcp传输时的数据,默认为false,不压缩。

    http.port: 9200
    设置对外服务的http端口,默认为9200。

    http.max_content_length: 100mb
    设置内容的最大容量,默认100mb

    http.enabled: false
    是否使用http协议对外提供服务,默认为true,开启。

    gateway.type: local
    gateway的类型,默认为local即为本地文件系统,可以设置为本地文件系统,分布式文件系统,hadoop的HDFS,和amazon的s3服务器等。

    gateway.recover_after_nodes: 1
    设置集群中N个节点启动时进行数据恢复,默认为1。

    gateway.recover_after_time: 5m
    设置初始化数据恢复进程的超时时间,默认是5分钟。

    gateway.expected_nodes: 2
    设置这个集群中节点的数量,默认为2,一旦这N个节点启动,就会立即进行数据恢复。

    cluster.routing.allocation.node_initial_primaries_recoveries: 4
    初始化数据恢复时,并发恢复线程的个数,默认为4。

    cluster.routing.allocation.node_concurrent_recoveries: 2
    添加删除节点或负载均衡时并发恢复线程的个数,默认为4。

    indices.recovery.max_size_per_sec: 0
    设置数据恢复时限制的带宽,如入100mb,默认为0,即无限制。

    indices.recovery.concurrent_streams: 5
    设置这个参数来限制从其它分片恢复数据时最大同时打开并发流的个数,默认为5。

    discovery.zen.minimum_master_nodes: 1
    设置这个参数来保证集群中的节点可以知道其它N个有master资格的节点。默认为1,对于大的集群来说,可以设置大一点的值(2-4)

    discovery.zen.ping.timeout: 3s
    设置集群中自动发现其它节点时ping连接超时时间,默认为3秒,对于比较差的网络环境可以高点的值来防止自动发现时出错。

    discovery.zen.ping.multicast.enabled: false
    设置是否打开多播发现节点,默认是true。

    discovery.zen.ping.unicast.hosts: ["host1", "host2:port", "host3[portX-portY]"]
    设置集群中master节点的初始列表,可以通过这些节点来自动发现新加入集群的节点。

     基本操作

    设置集群中master节点的初始列表,可以通过这些节点来自动发现新加入集群的节点。

  • 相关阅读:
    以正确的方式开源 Python 项目
    如果你喜欢Python 那么你不得不知的几个开源项目
    如何自学 Python(干货合集)
    不老的新丁 Python何以让人着迷
    流行的Python项目汇总
    AccountManager使用教程
    设计模式大全
    ubuntu12.04安装深度音乐播放器和深度影音
    完毕port(CompletionPort)具体解释
    关于jdbc注冊驱动的那点事
  • 原文地址:https://www.cnblogs.com/duanxz/p/5528310.html
Copyright © 2020-2023  润新知