• log4j使用方法(二)—— log4j配置进阶


      前面的一篇基本能够让log4j跑起来了,这里再稍微深入一点的学习log4j的配置。

      log4j的配置方式总共分为两种:通过程序配置和通过配置文件配置。而通过配置文件配置又可以分为两种:XML文件和key-value方式配置。我比较喜欢key-value的配置方式,因为这样清晰,易改,所以这里也就只介绍key-value的配置方式了。

      log4j的配置文件主要做了下面几件事情:

      1、定义logger——logger相当于是日志的记录者,通过配置不同的logger并调用,可以在一个程序中将日志记录到不同的地方,默认没有logger,但是有一个rootlogger,rootlogger可以说是各个普通logger的公用logger,每次调用其他logger的时候都会调用一次rootlogger。所以如果对日志没有分别记录的需求,就不需要定义普通logger了,直接使用rootlogger就行了,而对于需要分别记录的日志,则需要定义自己的logger,并在记录日志的时候调用。

      logger的定义格式为:

    log4j.logger.getAd=INFO, getAd
    

      其中getAd为logger名,我们在程序中可以通过

    Logger logger = Logger.getLogger("getAd");
    

      来获得相应的logger,如果没有找到,则使用的是rootlogger。

    定义中的INFO是表示级别,这个在上一篇中有介绍过,后面的是Appender,可以定义多个Appender,这样日志就可以以不同的形式记录到不同的地方。

      2、定义Appender——日志信息的输出地,例如是文件还是控制台等等,一个logger可以同时将日志输出到几个地方。log4j的日志记录地主要有以下几种:

    org.apache.log4j.ConsoleAppender(控制台),
    org.apache.log4j.FileAppender(文件),
    org.apache.log4j.DailyRollingFileAppender(每天产生一个日志文件),
    org.apache.log4j.RollingFileAppender(文件大小到达指定尺寸的时候产生一个新的文件),
    org.apache.log4j.WriterAppender(将日志信息以流格式发送到任意指定的地方)
    

      一般而言,rootlogger肯定是需要打印到控制台的,这样便于调试。

      3、定义Layout——日志的输出格式。log4j提供了下面几种日志输出格式:

    org.apache.log4j.HTMLLayout(以HTML表格形式布局),
    org.apache.log4j.PatternLayout(可以灵活地指定布局模式),
    org.apache.log4j.SimpleLayout(包含日志信息的级别和信息字符串),
    org.apache.log4j.TTCCLayout(包含日志产生的时间、线程、类别等等信息)
    

      平常我们使用比较多的格式是PatternLayout,因为他灵活,可以通过模板来配置我们的日志的格式,这样也便于日后对日志数据的处理。日志输出的格式可以按照下面的参数进行配置:

    -X号: X信息输出时左对齐;
     %p: 输出日志信息优先级,即DEBUG,INFO,WARN,ERROR,FATAL,
     %d: 输出日志时间点的日期或时间,默认格式为ISO8601,也可以在其后指定格式,比如:%d{yyy MMM dd HH:mm:ss,SSS},输出类似:2002年10月18日 22:10:28,921
     %r: 输出自应用启动到输出该log信息耗费的毫秒数
     %c: 输出日志信息所属的类目,通常就是所在类的全名
     %t: 输出产生该日志事件的线程名
     %l: 输出日志事件的发生位置,相当于%C.%M(%F:%L)的组合,包括类目名、发生的线程,以及在代码中的行数。举例:Testlog4.main (TestLog4.java:10)
     %x: 输出和当前线程相关联的NDC(嵌套诊断环境),尤其用到像java servlets这样的多客户多线程的应用中。
     %%: 输出一个"%"字符
     %F: 输出日志消息产生时所在的文件名称
     %L: 输出代码中的行号
     %m: 输出代码中指定的消息,产生的日志具体信息
     %n: 输出一个回车换行符,Windows平台为"\r\n",Unix平台为"\n"输出日志信息换行
     可以在%与模式字符之间加上修饰符来控制其最小宽度、最大宽度、和文本的对齐方式。如:
     1)%20c:指定输出category的名称,最小的宽度是20,如果category的名称小于20的话,默认的情况下右对齐。
     2)%-20c:指定输出category的名称,最小的宽度是20,如果category的名称小于20的话,"-"号指定左对齐。
     3)%.30c:指定输出category的名称,最大的宽度是30,如果category的名称大于30的话,就会将左边多出的字符截掉,但小于30的话也不会有空格。
     4)%20.30c:如果category的名称小于20就补空格,并且右对齐,如果其名称长于30字符,就从左边较远输出的字符截掉。
    

      

    基本上会上面几种知识就能够很好的对日志记录进行配置了,下面是我的一些配置:

    #日志配置文件
    log4j.rootLogger=DEBUG, rootlogger
    log4j.logger.getAd=INFO, getAd
    log4j.logger.adJump=INFO, adJump
    
    #-----------所有日志都会记录,这里只是打印到控制台上,不输出到文件中-----###
    log4j.appender.rootlogger=org.apache.log4j.ConsoleAppender
    log4j.appender.rootlogger.layout=org.apache.log4j.PatternLayout 
    log4j.appender.rootlogger.layout.ConversionPattern=[%-5p] %-4r %d{yyy-MM-dd HH:mm:ss} %30c  # %m%n
    
    #--------------获取广告信息时记录的日志----------###
    log4j.appender.getAd=org.apache.log4j.DailyRollingFileAppender
    log4j.appender.getAd.File=./adserver/getad/getAdInfo.log4j
    log4j.appender.getAd.encoding=utf-8
    log4j.appender.getAd.DatePattern='.'yyyy-MM-dd-HH-mm
    log4j.appender.getAd.layout=org.apache.log4j.PatternLayout 
    log4j.appender.getAd.layout.ConversionPattern=[%-5p] %-4r %d{yyy-MM-dd HH:mm:ss} %30c  # %m%n
    
    #----------------广告跳转时的日志记录---------###
    log4j.appender.adJump=org.apache.log4j.DailyRollingFileAppender
    log4j.appender.adJump.File=./adserver/adJump/adJump.log4j
    log4j.appender.adJump.encoding=utf-8
    log4j.appender.adJump.DatePattern='.'yyyy-MM-dd-HH-mm
    log4j.appender.adJump.layout=org.apache.log4j.PatternLayout 
    log4j.appender.adJump.layout.ConversionPattern=[%-5p] %-4r %d{yyy-MM-dd HH:mm:ss} %30c  # %m%n
    

      

    有关log4j的更详细的配置可以参考着篇文章:http://www.cnblogs.com/ITEagle/archive/2010/04/23/1718365.html

    做了上面这些东西,我们已经可以很好的记录我们的日志信息了,但是有时我们为了保证留下足够多的数据,我们会在程序中频繁的记录日志,这导致了系统的响应速度明显下降,这时候我们可能就需要用到异步日志了,好在log4j是支持异步日志的记录的,下一篇写点关于记录异步日志的东西。

  • 相关阅读:
    Kafka:ZK+Kafka+Spark Streaming集群环境搭建(二十六)Structured Streaming:WARN clients.NetworkClient: Error while fetching metadata with correlation id 1 : {my-topic=LEADER_NOT_AVAILABLE}
    Kafka:ZK+Kafka+Spark Streaming集群环境搭建(二十五)Structured Streaming:同一个topic中包含一组数据的多个部分,按照key它们拼接为一条记录(以及遇到的问题)。
    Kafka:ZK+Kafka+Spark Streaming集群环境搭建(二十四)Structured Streaming:Encoder
    Kafka:ZK+Kafka+Spark Streaming集群环境搭建(二十三)Structured Streaming遇到问题:Set(TopicName-0) are gone. Some data may have been missed
    Structured Streaming编程向导
    Kafka:ZK+Kafka+Spark Streaming集群环境搭建(二十二)Spark Streaming接收流数据及使用窗口函数
    Linux:磁盘挂载
    Kafka:ZK+Kafka+Spark Streaming集群环境搭建(二十一)NIFI1.7.1安装
    Spark参数设置的方式
    mydumper安装、原理介绍
  • 原文地址:https://www.cnblogs.com/umasuo/p/log4j_2.html
Copyright © 2020-2023  润新知