• ElasticSearch实战-入门


    http://www.cnblogs.com/smartloli/ 

    1.概述

      今天接着《ElasticSearch实战-日志监控平台》一文来给大家分享后续的学习,在《ElasticSearch实战-日志监控平台》中给大家介绍一个日志监控平台的架构方案,接下来给大家分享如何去搭建部署这样一个平台,给大家做一个入门介绍。下面是今天的分享目录:

    • 搭建部署 Elastic 套件
    • 运行集群
    • 截图预览

      下面开始今天的内容分享。

    2.搭建部署 Elastic 套件

      搭建 Elastic 套件较为简单,下面我们开始去搭建部署相关套件,首先我们准备必要的环境。

    2.1 基础软件

      大家可以 Elastic 的官方网站下载对应的安装包,地址如下所示:

      [下载地址

      另外,一个基础环境就是需要用到 JDK,ES 集群依赖 JDK,地址如下所示:

      [下载地址

    2.2 Logstash 部署

      这里我们将 Logstash 的服务部署在中心节点中,其核心配置文件如下所示:

    • central.conf
    复制代码
    input {
        redis {
            host => "10.211.55.18"
            port => 6379 
            type => "redis-input"
            data_type => "list"
            key => "key_count"
        }   
    }
    filter {
        grok {
            match => ["message", "%{IPORHOST:client} (%{USER:ident}|-) (%{USER:auth}|-) [%{HTTPDATE:timestamp}] "(?:%{WORD:verb} %{NOTSPACE:request}(?: HTTP/%{NUMBER:http_version})?|-)" %{NUMBER:response} %{NUMBER:bytes} "(%{QS:referrer}|-)" "(%{QS:agent}|-)""]
        }
        kv {
                    source => "request"
                    field_split => "&?"
                    value_split => "="
            }
        urldecode {
            all_fields => true
        }
    }
    
    output {
        elasticsearch {
            cluster => "elasticsearch"
            codec => "json"
            protocol => "http"
        }   
    }
    复制代码

      其代理节点,分别部署在日志生产节点之上,核心配置文件如下所示:

    • shipper.conf
    复制代码
    input {
        file {
            type => "type_count"
            path => ["/home/hadoop/dir/portal/t_customer_access.log"]
            exclude => ["*.gz", "access.log"]
        }   
    }
    
    output {
        stdout {}
        redis {
            host => "10.211.55.18"
            port => 6379
            data_type => "list"
            key => "key_count"
        }   
    }
    复制代码

    2.3 Elasticsearch 部署

      接着,我们部署 ES 集群,配置较为简单,其配置内容如下所示:

    • elasticsearch.yml
    node.name: "node1"

      这里我只配置了其节点名称信息,集群名称使用默认的,若大家需要配置其他信息可自行处理,需要注意的是,这里在实用 scp 命令分发到其他节点时,需要修改其属性值,保持每个节点的 node.name 值不一样即可。

      另外,在安装插件 ES 集群的相关插件时,可以使用以下命令:

    • head 插件
    sudo elasticsearch/bin/plugin -install mobz/elasticsearch-head
    • bigdesk 插件
    sudo elasticsearch/bin/plugin -install lukas-vlcek/bigdesk

      其对应的 Web UI 界面如下图所示:

    • head插件的界面

    • bigdesk的界面

      关于其他的 ES 集群的插件,搭建可以根据实际业务需求进行选择性的安装,这里就不多赘述了。

    2.4 Kibana 部署

      这里我们需要安装一个能够去可视化 ES 集群数据的工具,这里我们选择 Kibana 工具去可视化我们的数据,其安装较为简单,只需配置对应的核心文件即可,配置如下:

    • kibana.yml

    elasticsearch_url: "http://10.211.55.18:9200"

      这里去可视化 node1 节点 ES 集群中数据。

    3.运行集群

      接着,我们启动整个系统,启动步骤如下所示:

    • 启动 Redis
    [hadoop@dn1 ~]$ redis-server &
    • 启动代理节点(分别在其代理节点启动shipper)
    bin/logstash agent --verbose --config conf/shipper.conf --log logs/stdout.log &
    • 启动中心服务
    bin/logstash agent --verbose --config conf/central.conf --log logs/stdout.log &
    • 启动 ES 集群(分别在 ES 节点启动)
    bin/elasticsearch start
    • 启动 Kibana 服务
    bin/kibana

    4.预览截图

      这里,我们可以预览收集的日志,日志信息我只抽取了几条,截图如下:

      我们还可以使用筛选功能,选取我们需要观察的数据结果,这里我们筛选了 IP 和 AppName 属性进行观察,如下图所示:

    5.总结

      这里需要注意的是,若是我们首次启动 Kibana 服务,收集日志信息为空的情况下,在我们创建索引时,Settings 模块下的界面中 Create 按钮会是灰色状态,导致无法创建,这里大家在创建的时候需要保证我们有日志已被收集存储到 ES 集群。如下图,由于我已收集存储日志到 ES 集群,所以按钮呈现绿色状态,供点击创建。如下图所示:

    6.结束语

      这篇博客就和大家分享到这里,如果大家在研究学习的过程当中有什么问题,可以加群进行讨论或发送邮件给我,我会尽我所能为您解答,与君共勉!

  • 相关阅读:
    【转】ERROR: Cannot uninstall 'llvmlite'. It is a distutils installed project. 此类报错的解决办法
    【转】python setup.py install 报错:error:[WinError 3]系统找不到指定的路径: 'C:\\Program Files (x86)\\Microsoft Visual Studio 14.0\\VC\\PlatformSDK\\lib
    【转】距离相关系数以及python包的安装
    【转】算法总结这是一份全面并且详细的排序算法学习指南
    origin 一键导出文件夹中所有图形
    【转】距离相关系数的python实现
    [转]一文让你通俗理解奇异值分解
    origin 检查是否有重复图片
    【Vegas原创】centos网卡自启动
    【Vegas原创】使用dockercompose运行mysql8
  • 原文地址:https://www.cnblogs.com/hujihon/p/5904760.html
Copyright © 2020-2023  润新知