• Linux实战(20):Docker部署EKL入门环境记录文档


    安装环境: centos7 ,EKL全套为7.5.2版本

    前期工作

    拉取已下三个镜像

    docker.io/logstash        7.5.2               b6518c95ed2f        6 months ago        805 MB
    docker.io/kibana          7.5.2               a6e894c36481        6 months ago        950 MB
    docker.io/elasticsearch   7.5.2               929d271f1798        6 months ago        779 MB
    

    修改系统配置

    修改系统配置文件,不修改会报错ERROR: bootstrap checks failed,参考链接

    #一次生效
    sudo sysctl -w vm.max_map_count=262144
    #永久生效
    sudo vi /etc/sysctl.conf
    #添加这一行
    vm.max_map_count=262144
     
    #加载配置
    sudo sysctl -p
    

    正文

    1. 准备 config,data,logs三个文件夹,文件夹里需要有配置的就config文件夹

    config 是elasticsearch容器默认的配置文件,我们需要修改elasticsearch.yml文件,不然还是启动不了,配置如下:

    #cluster.name: "docker-cluster"
    #network.host: 0.0.0.0
    cluster.name: "docker-cluster"
    node.name: node-1
    network.host: 0.0.0.0
    bootstrap.system_call_filter: false
    cluster.initial_master_nodes: ["node-1"]
    xpack.license.self_generated.type: basic
    

    注意: 配置文件需按照以上配置,不然起不来,有个说明我给忘了找不到了,有兴趣的可以去查查。

    data,logs文件夹可手动创建,需要给他们root账号的读写执行权限,我这给的是775 权限足够了,权限可参考如下:

    [root@localhost elasticsearch]# ls -al
    总用量 0
    drwxr-xr-x  6 root root  89 7月  21 16:45 .
    drwxr-xr-x  5 root root  73 7月  21 16:25 ..
    drwxr-xr-x  2 root root 178 7月  21 16:44 config
    drwxrwxr-x  3 root root  27 7月  21 16:53 data
    drwxrwxr-x 10 root root 283 7月  21 16:40 elasticsearch.bak
    drwxrwxr-x  2 root root 133 7月  21 16:55 logs
    
    1. docker run

    docker run --name elasticsearch -p 9200:9200 -v /data/EKL/elasticsearch/config:/usr/share/elasticsearch/config -v /data/EKL/elasticsearch/data://usr/share/elasticsearch/data -v /data/EKL/elasticsearch/logs:/usr/share/elasticsearch/logs -v /etc/localtime:/etc/localtime:ro -itd elasticsearch:7.5.2

    端口可以自己改,我这就默认了
    确认一下是否起来了

    [root@localhost elasticsearch]# docker ps
    CONTAINER ID        IMAGE                 COMMAND                  CREATED             STATUS              PORTS                              NAMES
    1b0763e52708        elasticsearch:7.5.2   "/usr/local/bin/do..."   14 minutes ago      Up 9 minutes        0.0.0.0:9200->9200/tcp, 9300/tcp   elasticsearch
    

    起来了后用浏览器访问一下 127.0.0.1:9200 (127.0.0.1是你自己宿主机的IP地址),如下图:
    在这里插入图片描述

    1. 准备 kibana的 config 文件夹,配置内容如下
    #
    ## ** THIS IS AN AUTO-GENERATED FILE **
    ##
    #
    ## Default Kibana configuration for docker target
    server.name: kibana
    server.host: "0"
    elasticsearch.hosts: [ "http://127.0.0.1:9200" ]  # 127.0.0.1:9200改为你自己的elasticsearch地址
    xpack.monitoring.ui.container.elasticsearch.enabled: true  # 解释链接https://blog.csdn.net/u011311291/article/details/100041912
    i18n.locale: zh-CN  #汉化
    kibana.index: ".kibana"  #配置本地索引
    
    1. docker run 启动

    docker run -itd --name kibana -p 5601:5601 -v /data/EKL/kibana/config:/usr/share/kibana/config -v /etc/localtime:/etc/localtime:ro kibana:7.5.2

    注意:开放所用到的端口,我这里是9200,5601,浏览器访问127.0.0.1:5601 (127.0.0.1是你自己宿主机的IP),开放端口命令
    在这里插入图片描述

    1. 准备好logstash的 config跟pipeline文件

    修改config下的 logstash.yml ; logstash-sample.conf 两个配置文件中的 elasticsearch 地址
    logstash.ymlpipelines.ymllogstash-sample.conf配置地址如下

    [root@test config]# cat logstash.yml 
    http.host: "0.0.0.0"
    xpack.monitoring.elasticsearch.hosts: [ "http://127.0.0.1:9200" ]
    
    [root@test config]# cat pipelines.yml 
    # This file is where you define your pipelines. You can define multiple.
    # For more information on multiple pipelines, see the documentation:
    #   https://www.elastic.co/guide/en/logstash/current/multiple-pipelines.html
    
    - pipeline.id: main
      path.config: "/usr/share/logstash/pipeline"     #这是服务配置路径,可改。我这暂且不改。
    
    
    [root@test config]# cat logstash-sample.conf
    
    # Sample Logstash configuration for creating a simple
    # Beats -> Logstash -> Elasticsearch pipeline.
    
    input {
      beats {
        port => 5044
      }
    }
    
    output {
      elasticsearch {
        hosts => ["http://127.0.0.1:9200"]
        index => "%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}"
        #user => "elastic"
        #password => "changeme"
      }
    }
    
    

    注意:以上 127.0.0.1:9200 需改为自己宿主机的地址

    其实到这一步就差不多了,接下来就是对监控的logs做相关的配置了,我是对java的logs做个监控,需在 pipeline 下创建一个 java.conf (命名可改随你喜欢),配置如下

    
    [root@test pipeline]# vim java.conf 
    
    input {
        file{
          path => "/DATA/logs/chenfan-base.log"   #log路径
          type => "base"                        # 打个标签
          start_position => "beginning"
            }
        }
    
    output {
        if [type] == "base" {               # 条件
            elasticsearch {
                hosts => ["127.0.0.1:9200"]  #elasticsearch 服务地址
                index => "base-%{+YYYY.MM.dd}"  # 索引名字命名
                codec => "json"                                 #需将java日志装成json格式
                    }
                }
    }
    

    参考链接

    1. Docker run
      docker run -itd --name logstash -p 5044:5044 -p 9600:9600 -v /DATA/logstash/docker/logstash/config:/usr/share/logstash/config -v /DATA/logstash/docker/logstash/pipeline:/usr/share/logstash/pipeline -v /DATA/logstash/log:/DATA/logs -v /etc/localtime:/etc/localtime:ro logstash:7.5.2

    2. 配置kibana索引

    直接看图吧

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    注意:下一步就是选择时间了,我这都已经加过了不便操作了。加完之后看下面的操作,
    在这里插入图片描述
    这就有了,如果没有选一下时间点一下更新。

    完事!!!

    踩坑参考链接汇总

    参考一
    参考二
    参考三

  • 相关阅读:
    vue 跨域访问http
    vue 生命周期小结
    koa的教程
    spoj104 HIGH
    loj2026 「JLOI / SHOI2016」成绩比较
    loj2024「JLOI / SHOI2016」侦查守卫
    loj2016 「SCOI2016」美味
    loj2014 「SCOI2016」萌萌哒
    loj2013 「SCOI2016」幸运数字
    loj2012 「SCOI2016」背单词
  • 原文地址:https://www.cnblogs.com/98record/p/13648571.html
Copyright © 2020-2023  润新知