#1.自定义agent的名字source,channel,sink组件
a2.sources = r2
a2.channels = c2
a2.sinks = k2
#2.设置source的类型和配置
a2.sources.r2.type = exec
a2.sources.r2.command = tail -F /opt/module/flume/demo/123.log
#3.设置channel的类型和配置
a2.channels.c2.type = memory
a2.channels.c2.capacity = 1000
#4.设置sink的类型和配置
# Describe the sink
a2.sinks.k2.type = hdfs
#如果要使用时间转义序列那么两个要求满足其一即可①使用本地时间戳 ②在event中headers中必须有时间戳
a2.sinks.k2.hdfs.path = hdfs://hadoop102:8020/flume/%Y%m%d/%H
#是否使用本地时间戳
a2.sinks.k2.hdfs.useLocalTimeStamp = true
#上传文件的前缀
a2.sinks.k2.hdfs.filePrefix = logs-
#下面三个配置就决定了多少时间创建一个新的目录
#是否按照时间滚动文件夹
a2.sinks.k2.hdfs.round = true
#多少时间单位创建一个新的文件夹
a2.sinks.k2.hdfs.roundValue = 1
#重新定义时间单位
a2.sinks.k2.hdfs.roundUnit = hour
#积攒多少个Event才flush到HDFS一次
a2.sinks.k2.hdfs.batchSize = 100
#设置文件类型,可支持压缩
a2.sinks.k2.hdfs.fileType = DataStream
#多久生成一个新的文件(60秒)
a2.sinks.k2.hdfs.rollInterval = 60
#设置每个文件的滚动(创建一个新的文件后面的内容将写到新的文件中)大小
a2.sinks.k2.hdfs.rollSize = 134217700
#文件的滚动与Event数量无关(写0的意思是停用)
a2.sinks.k2.hdfs.rollCount = 0
a2.sources.r2.channels = c2
a2.sinks.k2.channel = c2