• flume-ng配置文档简单说明


    1、配置文件现状

    1.1 Flume数据接收端

    IP地址:54.0.95.67

    功能:接收各个端口发来的数据。

    启动方式:进入目录 /usr/local/flume/*bin 在终端运行 ./recei*.sh 启动agent。

    该agent的配置文件在 /usr/local/flume/*bin/conf/receiveTest.conf 文件中。

    1.2 Flume 数据搜集

    目前只配置了16台主机,分别是:1. root@54.0.193.30:22,2. root@54.0.76.192:22,6. root@54.0.105.32:22,7. root@54.0.105.33:22,8. root@54.0.105.35:22 ,13. root@54.0.76.11:22,20. root@54.0.193.56:22 ,21. root@54.0.193.57:22,24. root@54.0.193.55:22 ,36. root@54.0.160.24:22,37. root@54.0.160.25:22 ,54. root@54.0.193.35:22 ,58. root@54.0.193.32:22,以及第9,第10和第11台主机。

    功能:监听某个文件(自定),若文件有新增内容,agent.sources立即搜集,经channels传输至相应的sinks中。

    启动方式:进入目录 /tmp/flume/*bin 在终端运行 ./cli*.sh 启动相应agent。

    该agent的配置文件在 /tmp/flume/*bin/conf/cli*.conf 文件中。

    2、所用配置文件介绍

    2.1 Flume Sources

    2.1.1 拦截器

    a1.sources = r1

    a1.sources.r1.interceptors = i1 i2 i3

    a1.sources.r1.interceptors.i1.type = timestamp

    a1.sources.r1.interceptors.i2.type = host

    a1.sources.r1.interceptors.i2.hostHeader = hostname

    a1.sources.r1.interceptors.i2.useIP = false

    a1.sources.r1.interceptors.i3.type = static

    a1.sources.r1.interceptors.i3.key = datatype

    a1.sources.r1.interceptors.i3.value = TYPE_A

    (1) TimeStampInterceptor:使用时间戳拦截

     type = timestamp

    设定timestamp,则会在flume event中添加一个键为timestamp的头,值为当前系统的datetime。设定timestamp的主要作用是当sink为hdfs格式时,可将该时间戳用在文件名或生成的文件的所在目录中。

    (2) StaticInterceptor:可以自定义事件的header的value

    type = static

    用于向每个处理的event插入任意单个的键/值头。默认为保留已存在的具有相同键的头。

    也可以理解为自定义标签。

    (3) HostInterceptor:使用IP或hostname拦截

     type = host

    如果未指定hostHeader,则头的键就是host。useIP默认为true,即值使用IP,当设定为false,则value为hostname。preserveExisting属性代表是否覆盖消息头中已经有的IP,默认为false。

    2.1.2 选择器 Selector

    有两种模式:replicating、multiPlexing。

    (1)replicating (默认):复制。把所有event发送到每一个channel中,也反映了sorces与channels可以是一对多的关系。

    a1.sources = r1

    a1.channels = c1 c2 c3

    a1.source.r1.selector.type = replicating

    a1.source.r1.channels = c1 c2 c3

    a1.source.r1.selector.optional = c3

    (2) multiPlexing:分流。这要求指定到一个通道集合的映射事件属性。Selector会在事件头检查每一个配置属性,若匹配该value,则把event发给该channels(这mapping允许每一个value有重复的channel),若都不匹配,则可以发给默认(default)的channels。

    a1.sources = r1

    a1.channels = c1 c2 c3 c4

    a1.sources.r1.selector.type = multiplexing

    a1.sources.r1.selector.header = datetype

    a1.sources.r1.selector.mapping.TYPE_A = c1

    a1.sources.r1.selector.mapping.TYPE_B= c2 c3

    a1.sources.r1.selector.default = c4

    2.2 Flume Channels

    Memory-channel效率高但可能丢失数据,file-channel安全性高但性能不高。这里用的是memory-channel,但如果把capacity设置的足够小,使内存中的数据尽可能少,在意外重启或断电时丢失的数据就会很少了。

    2.3 Flume Sinks

    2.3.1 文件命名

    当sink的type为hdfs格式时,可以指定文件的前缀与后缀,前提是消息头设置有IP和时间戳。

    a1.sinks.k1.hdfs.filePrefix = %{hostname}-%y-%m-%d

    a1.sinks.k1.hdfs.fileSuffix = .log

    %{hostname} :取消息头中的主机名作为文件名的一部分。

    %y-%m-%d :取消息头中的时间戳作为文件名的一部分,此时间格式可根据需要修改。

    fileSuffix = .log 文件后缀为.log,当文件还未关闭时,此后缀的后面还有一个.tmp尾巴,通过inUseSuffix将此.tmp(默认)消去:a1.sinks.k1.hdfs.inUseSuffix =

    2.3.2 rollIntervalrollSizerollCount

    在54.0.95.67主机中,sink的type为hdfs,rollInterval、rollSize以及rollCount可以很好的控制hdfs文件的大小。

    (1)          rollInterval 默认为30秒,即每隔30秒建立一个新的文件,此处可以根据需要设置合理的按时间间隔生成一个新文件。

    (2)          rollSize 默认为1024个字节,当文件数据达到此大小,则产生一个新的文件。经验证,若某个event的传入超过了rollSize,且传入之前未满,则该event依然装入该文件,下一个event则另起一个新文件。

    (3)          rollCount 默认为10,即一个文件装10个event。

    若三个值都设定为0,则hdfs就只有一个文件,里面是变得越来越大的文件。

    2.3.3 文件类型 filetype

    (1)序列文件 SequenceFile (默认)

    通常文件会以换行符确定每一条记录,若数据中含有换行符,使用SequenceFile可以解决问题。

    (2)数据流DataStream

    只输出未压缩的值。

    (3)压缩流 CompressedStream

    类似DataStream,但是数据写入时会被压缩。在MapReduce中只有某些压缩格式才可能进行分割。

    3、注意点

    3.1 JDK版本不兼容问题

    JDK用1.6或1.6以上版本。

    3.2 对应关系

    Sources与channnels可以是一对一或者一对多关系,不可以多对一。

    Channels与sinks是一对一关系或者多对一。

    3.3 收到多份相同数据

    若发现新增一条数据,却可以收到多份相同数据,原因是未正常关闭tail,有多个tail进程在同时跑。

    3.4 HDFS目录

    当sinks的type为hdfs时,文件目录需要在主机master中建立。

    4flume各组件支持的类型

    4.1 flume source 支持的类型

    Source类型

    说明

    Avro Source

    支持Avro协议(实际上是是Avro RPC)

    Syslog Source

    支持UDP和TCP两种协议

    HTTP Source

    基于HTTP POST或get方式的数据,支持JSON,BLOB表示形式。

    Spooling Dir Source

    监控指定目录内数据变更

    Netcat Source

    监控某个端口

    Exec Source

    基于Unix的command

    ……

    ……

    4.2 flume channel 支持的类型

    Channel类型

    说明

    Memory Channel

    Event数据存储在内存中

    JDBC

    数据存储在持久化存储中,当前channel 内置支持Derby

    File Channel

    数据存储在磁盘文件中

    ……

    ……

    4.3 flume sink支持的类型

    Sink 类型

    说明

    HDFS Sink

    数据写入HDFS

    Logger Sink

    数据写入日志文件

    Avro sink

    数据被转换成Avro Event ,在发送到配置的RPC端口上

    File Roll Sink

    存储数据到本地文件系统

    Null Sink

    丢弃掉所有数据

    Hbase Sink

    数据写入Hbase数据库

    ……

    ……

  • 相关阅读:
    “国产化替代”加速!这些软件要硬刚国外巨头
    企业研发流程演进之路
    胜任力模型
    金字塔原理
    扒一扒数据中台的皇帝外衣(转)
    大数据平台构建实战
    浏览器的底层响应原理
    分库分表方案
    spring boot:用spring security加强druid的安全(druid 1.1.22 / spring boot 2.3.3)
    spring boot:用cookie保存i18n信息避免每次请求时传递参数(spring boot 2.3.3)
  • 原文地址:https://www.cnblogs.com/llphhl/p/5508050.html
Copyright © 2020-2023  润新知