• [elk]elasticsearch实现冷热数据分离


     

     
     

    目录(?)[+]

     

    本文以最新的elasticsearch-6.3.0.tar.gz为例,为了节约资源,本文将副本调为0, 无client角色

    https://www.elastic.co/blog/hot-warm-architecture-in-elasticsearch-5-x

    以前es2.x版本配置elasticsearch.yml 里的node.tag: hot这个配置不生效了
    
    被改成了这个
    node.attr.box_type: hot

    es架构

    各节点的es配置

    master节点:
    [root@n1 ~]# cat /usr/local/elasticsearch/config/elasticsearch.yml 
    cluster.name: elk
    node.master: true
    node.data: false
    node.name: 192.168.2.11
    #node.attr.box_type: hot
    #node.tag: hot
    path.data: /data/es 
    path.logs: /data/log
    network.host: 192.168.2.11
    http.port: 9200
    transport.tcp.port: 9300
    transport.tcp.compress: true
    discovery.zen.ping.unicast.hosts: ["192.168.2.11"]
    cluster.routing.allocation.disk.watermark.low: 85%
    cluster.routing.allocation.disk.watermark.high: 90%
    indices.fielddata.cache.size: 10%
    indices.breaker.fielddata.limit: 30%
    http.cors.enabled: true
    http.cors.allow-origin: "*"
    
    - client节点(这里就不配置了)
    
    node.master: false
    node.data: false
    - hot节点
    [root@n2 ~]# cat /usr/local/elasticsearch/config/elasticsearch.yml 
    cluster.name: elk
    node.master: false
    node.data: true
    node.name: 192.168.2.12
    node.attr.box_type: hot
    path.data: /data/es
    network.host: 192.168.2.12
    http.port: 9200
    transport.tcp.port: 9300
    transport.tcp.compress: true
    discovery.zen.ping.unicast.hosts: ["192.168.2.11"]
    cluster.routing.allocation.disk.watermark.low: 85%
    cluster.routing.allocation.disk.watermark.high: 90%
    indices.fielddata.cache.size: 10%
    indices.breaker.fielddata.limit: 30%
    http.cors.enabled: true
    http.cors.allow-origin: "*"
    - cold节点
    [root@n3 ~]# cat /usr/local/elasticsearch/config/elasticsearch.yml 
    cluster.name: elk
    node.master: false
    node.data: true
    node.name: 192.168.2.13
    node.attr.box_type: cold
    path.data: /data/es
    network.host: 192.168.2.13
    http.port: 9200
    transport.tcp.port: 9300
    transport.tcp.compress: true
    discovery.zen.ping.unicast.hosts: ["192.168.2.11"]
    cluster.routing.allocation.disk.watermark.low: 85%
    cluster.routing.allocation.disk.watermark.high: 90%
    indices.fielddata.cache.size: 10%
    indices.breaker.fielddata.limit: 30%
    http.cors.enabled: true
    http.cors.allow-origin: "*"
    

    如何实现某索引数据写到指定的node?(根据节点tag即可)

    我hot节点打了tag

    node.attr.box_type: cold
    创建一个template(这里我用kibana来操作es的api)
    
    PUT _template/test
    {
        "index_patterns": "test-*",
        "settings": {
            "index.number_of_replicas": "0",
            "index.routing.allocation.require.box_type": "hot"
         }
    }

    意思是test-*索引命名的,都将其数据放到hot节点上.

    如何实现数据从hot节点迁移到老的cold节点?

    以test-2018.07.05索引为例,将它从hot节点迁移到cold节点

    kibana里操作:
    
    PUT /test-2018.07.05/_settings 
    { 
      "settings": { 
        "index.routing.allocation.require.box_type": "cold"
      } 
    }

    生产中可能每天,或每h,生成一个index.

    test-2018.07.01
    test-2018.07.02
    test-2018.07.03
    test-2018.07.04
    test-2018.07.05
    ...

    我可以写一个sh定时任务,每天晚上定时迁移数据.
    如我在hot节点只保留7天的数据,7天以前的索引我匹配到, 每天晚上执行以下迁移命令即可.

    cold节点数据保留1个月?

    https://www.cnblogs.com/iiiiher/p/8029062.html

    优化点:

    1.为了提高吞吐量

    path.data:/data1,/data2,/data3,/data4,/data5 可以每个目录挂一块盘
    

    2.如果有10台hot节点,可以设置10个shards

    logstash测试

    input { stdin { } }
    output {
        elasticsearch { 
            index => "test-%{+YYYY.MM.dd}"
            hosts => ["192.168.2.11:9200"] 
        }
        stdout {codec => rubydebug}
    }
    
    /usr/local/logstash/bin/logstash -f logstash.yaml --config.reload.automatic

    关于es的index template

    关于es的template
    es数据入库时候都会匹配一个index template,默认匹配的是logstash这个template

    template大致分成setting和mappings两部分

    1. settings主要作用于index的一些相关配置信息,如分片数、副本数,tranlog同步条件、refresh等。
    2. mappings主要是一些说明信息,大致又分为_all、_source、prpperties这三部分: https://elasticsearch.cn/article/335

    根据index name来匹配使用哪个index template. index template属于节点范围,而非全局. 需要给某个节点单独设置index_template(如给设置一些特有的tag).

     
     
     
     
  • 相关阅读:
    Hadoop安装配置(ubuntu-12.04.2-server-amd64)
    初识hadoop
    mybatis多表关联配置
    mybatis的详解
    SpringMVC学习笔记
    spring注解
    web filter用spring注入对象
    luence全文检索(数据库检索)
    C++ inline 函数
    Ubuntu16.04 QT5编译出现cannot find -lGL和collect2:error:ld r
  • 原文地址:https://www.cnblogs.com/gaoyuechen/p/10764267.html
Copyright © 2020-2023  润新知