• Awstats分析nginx日志



    Awstats分析nginx日志



    ---------------------------------转载的,经过自己的测试没有问题,不记得链接了,呵呵!

    前言:

      在实际的网站运营中,我们经常需要了解到网站的访问情况,例如每天有多少 IP 在访问、PV 数是多少、哪个 URL 访问量最大、用户使用最多的浏览器是哪个、都是通过什么方式知道这个网站的以及有多少用户访问出错等等,通过掌握这些信息来提高用户的体验,从而改善网站的质量。一般我们可以通过一些免费的访问统计网站例如 Google Analytics 来或者这些信息。但不足之处是这类网站只能对页面进行分析,不包括静态文件;另外可能有很多的站长不愿意使用这类工具来暴露自己的数据,种种的这些因素使站长希望自己来分析访问日志。而 awstats 就可以满足所有的这些需求。

        Awstats 是在 SourceForge 上发展很快的一个基于 Perl WEB 日志分析工具,一个充分的日志分析让 Awstats 显示您下列资料:

        ●访问次数、独特访客人数,
        ●
    访问时间和上次访问,
        ●
    使用者认证、最近认证的访问,
        ●
    每周的高峰时间(页数,点击率,每小时和一周的千字节),
        ●
    域名/国家的主机访客(页数,点击率,字节,269域名/国家检测, geoip 检测),
        ●
    主机名单,最近访问和未解析的 IP 地址名单
        ●
    大多数看过的进出页面,
        ●
    档案类型,
        ●
    网站压缩统计表(mod_gzip 或者 mod_deflate),
        ●
    使用的操作系统 (每个操作系统的页数,点击率 ,字节, 35 OS detected),
        ●
    使用的浏览器,
        ●
    机器人访问(检测 319 个机器人),
        ●
    蠕虫攻击 (5 个蠕虫家族),
        ●
    搜索引擎,利用关键词检索找到你的地址,
        ●HTTP 协议
    错误(最近查阅没有找到的页面),
        ●
    其他基于 URL 的个性报导,链接参数, 涉及综合行销领域目的.
        ●
    贵网站被加入"最喜爱的书签".次数.
        ●
    屏幕大小(需要在索引页补充一些 HTML 标签).
        ●
    浏览器的支持比例: Java, Flash, RealG2 reader, Quicktime reader, WMA reader, PDF reader.
        ●
    负载平衡服务器比率集群报告.
        Awstats
    的运行是需要 PERL 环境的支持,从 awstats 的文档来看,它对 Apache HTTP Server 的支持是非常完美的,而当我们把 Web 服务器换成 Nginx 后,要运行 awstats 变得很麻烦。首先 Nginx 本身对 Perl 的支持是比较弱的,甚至官方也不建议使用;另外在日志格式上有需要修改后才能运行。

        本文主要介绍通过让 awstats 对日志统计的结果生成静态页面,然后通过 Nginx 输出以达到统计 Nginx 访问日志的效果,其中还包括如何让 Nginx 自动切割日志文件。

     

    一、配置 Nginx 自动切割日志

    Apache HTTP Server(以下称 Apache)不同的是,Apache 可以将日志输出通过管道的方式进行重新定向,依此来进行自动的日志切割。Nginx 在现今版本上还没能跟 Apache 一样,通过%YY等参数按日期分批创建日志,但是通过给 nginx 进程发送一个特定的信号,可以使 nginx 重新生成日志文件。我们可以定期执行一个 Shell 脚本来切换日志,重新命名或转移,具体的脚本如下:

    # mv  /www/logs/www.jackbillow.com_access.log /www/logs/www.jackbillow.com_access_`date +%Y%m%d`.log
    # kill -s USR1 `cat /var/run/nginx.pid` #
    使用USR1参数通知Nginx进程切换日志文件

    将以上脚本内容保存为文件名为 nginxlogrotate.sh 存到自定的目录中,例如 /usr/local/bin/nginxlogrotate.sh

    使用 Crontab 让该脚本程序在每天晚上 11 59 分自动执行,即可做到按天创建日志。

     

    二、安装和配置 Awstats

    1、安装之前,必须确认你的服务器上 Perl 的环境已经就绪。

    查看当前环境 Perl 版本的命令是 perl –version

    我们还需要对 Nginx 的日志格式做个小修改,不然 awstats 将无法进行统计。

    例子如下(加粗部分)

    # vi /usr/local/nginx/conf/nginx.conf

    log_format main  '$remote_addr - $remote_user [$time_local] '

                                     '"$request" $status $bytes_sent '

                                   '"$http_referer" "$http_user_agent" '

                               '"$gzip_ratio" "$http_x_forwarded_for" ';

     

    2、安装awstats

     

    下载地址:

    http://prdownloads.sourceforge.net/awstats/awstats-7.0.tar.gz


     

    下载最新版本的 awstats 包,下载地址请见文章最后的参考资料。把下载后的 tar 包解压到任意目录中,例: /usr/local/awstats 。然后执行 tools 目录中的 awstats_configure.pl 配置向导,创建一个新的统计。

    -----> Check for web server install

    Enter full config file path of your Web server.
    Example: /etc/httpd/httpd.conf
    Example: /usr/local/apache2/conf/httpd.conf
    Example: c:\Program files\apache group\apache\conf\httpd.conf
    Config file path ('none' to skip web server setup):
    #> none  #
    因为我们这里用的是 Nginx,所以写 none,跳过。

     

    回车

    Your web server config file(s) could not be found.
    You will need to setup your web server manually to declare AWStats
    script as a CGI, if you want to build reports dynamically.
    See AWStats setup documentation (file docs/index.html)

    -----> Update model config file '/usr/local/awstats/wwwroot/cgi-bin/awstats.model.conf'
      File awstats.model.conf updated.

    -----> Need to create a new config file ?
    Do you want me to build a new AWStats config/profile
    file (required if first install) [y/N] ?
    #> y #y
    创建一个新的统计配置

     

    回车

    -----> Define config file name to create
    What is the name of your web site or profile analysis ?
    Example: www.mysite.com
    Example: demo
    Your web site, virtual server or profile name:
    #> www.moabc.net  #
    统计网站的域名 例:
    www.moabc.net


    回车

    -----> Define config file path
    In which directory do you plan to store your config file(s) ?
    Default: /etc/awstats
    Directory path to store config file(s) (Enter for default):
    #>


    使用默认直接回车,接下来便会出现以下的提示

    ----> Add update process inside a scheduler
    Sorry, configure.pl does not support automatic add to cron yet.
    You can do it manually by adding the following command to your cron:
    /usr/local/awstats/wwwroot/cgi-bin/awstats.pl -update -config=www.moabc.net 
                   #
    回头把该命令填入crontab 按指定时间执行
    Or if you have several config files and prefer having only one command:
    /usr/local/awstats/tools/awstats_updateall.pl now
    Press ENTER to continue... 
    回车继续

    A SIMPLE config file has been created: /etc/awstats/awstats.www.moabc.net.conf 
                #
    新配置文件所在的路径
    You should have a look inside to check and change manually main parameters.
    You can then manually update your statistics for 'www.moabc.net' with command:
    > perl awstats.pl -update -config=www.moabc.net
    You can also build static report pages for 'www.moabc.net' with command:
    > perl awstats.pl -output=pagetype -config=www.moabc.net

    Press ENTER to finish...

     

    回车完成向导,接下来修改 www.moabc.net 的统计配置

    #vi /etc/awstats/awstats.www.moabc.net.conf

    找到统计的日志文件的路径

    LogFile="/var/log/httpd/mylog.log"

    改为

    LogFile="/opt/nginx/logs/access_%YYYY-0%MM-0%DD-0.log

    对应上边 Nginx 日志切割程序的所生成的目录存放结构,要注意 Awstats 的年月日格式的跟 Nginx 的写法有所不同。我们现在执行统计的顺序是:

    Nginx 产生日志 –> 日志切割 –> Nginx 继续产生日志 –> 另存切割日志 –> 交由Awstats统计 –> 生成结果

     

    在本文中 Awstats 所统计的日志,是已切下来的那部分。也能调转顺序,先统计完了再切。不过这比较容易造成统计的遗漏。配置修改完成后,保存退出。然后我们可以开始试一下手动执行。

    1. 先执行日志切割脚本 logcron.sh Nginx 的日志切下来。
    2. 然后执行 Awstats 日志更新程序开始统计分析。

    # /opt/nginx/sbin/logcron.sh
    # /usr/local/awstats/wwwroot/cgi-bin/awstats.pl -update -config=www.moabc.net

    Create/Update database for config "/etc/awstats/awstats.www.moabc.net.conf"
            by AWStats version 6.7 (build 1.892)
    From data in log file "/opt/nginx/logs/access_20080804.log"...
    Phase 1 : First bypass old records, searching new record...
    Direct access after last parsed record (after line 450421)
    Jumped lines in file: 450421
     Found 450421 already parsed records.
    Parsed lines in file: 120
     Found 0 dropped records,
     Found 0 corrupted records,
     Found 0 old records,
     Found 120 new qualified records.

     

    看到以上显示,证明日志切割和 Awstats 都已经运行无误了。统计分析完成后,结果还在 Awstats 的数据库中。在 Apache 上,可以直接打开 Perl 程序的网页查看统计。 但本文开始时已经提到,Nginx Perl 支持并不好,所以我们要换个方法,利用 awstats 的工具将统计的结果生成静态文件,具体的步骤如下:

    • 首先在 webroot 目录下创建一个文件夹。例:/data/webroot/awstats
    • 然后让 Awstats 把静态页面生成到该目录中

    # mkdir  /data/webroot/awstats

    # /usr/local/awstats/tools/awstats_buildstaticpages.pl -update  \
    -config=www.moabc.net -lang=cn -dir=/data/admin_web/awstats  \
    -awstatsprog=/usr/local/awstats/wwwroot/cgi-bin/awstats.pl

     

    上述命令的具体意思如下:

    • /usr/local/awstats/tools/awstats_buildstaticpages.pl Awstats 静态页面生成工具
    • -update -config=www.jackbillow.com 更新配置项
    • -lang=cn 语言为中文
    • -dir=/www/wwwroot/www.jackbillow.com/awstats 统计结果输出目录
    • -awstatsprog=/usr/local/awstats/wwwroot/cgi-bin/awstats.pl Awstats 日志更新程序路径。

    接下来,只需在nginx.conf 中,把该目录配置上去即可。 例子如下:(加粗部分):

    server {
    listen       80;
    server_name  www.jackbillow.com;

    location ~ ^/web/ {
    root   /www/wwwroot;
    index  index.html;
    error_log off;
    charset gb2312;
    }

    location ~ ^/awstats/ {     # html
    静态页面目录
            root   /www/wwwroot/www.jackbillow.com/awstats;
            index  index.html;
            access_log off;
            error_log off;
            charset gb2312; #
    最好把默认编码改成 gb2312避免浏览器因自动编码出现乱码的情况
    }

    location ~ ^/icon/ {             #
    图标目录
            root   /usr/local/awstats/wwwroot;
            index  index.html;
            access_log off;
            error_log off;
            charset gb2312;
            }
    }

     

    用浏览器查看到统计的详细结果 http://www.jackbillow.com/awstats/awstats.www.jackbillow.com.html

    至此,使用 awstats 已能完全支持 Nginx 的日志统计。

     

  • 相关阅读:
    调用Mapreduce,org.apache.hadoop.hbase.mapreduce处理hbase问题
    mysql用视图和事件实现数据间隔插入数据到表
    mysql自定义函数实现数据正则处理
    ambari安装Zeppelin Notebook提示ES源找不到问题解决
    IDEA 进行编译代码的时候,报错误Error:scalac: IO error while decoding .* with GBK
    Linux最大线程数限制及当前线程数查询
    rhel log 日志时间戳时间不对更改方法
    usb禁用验证
    CentOS 7 下挂载NTFS文件系统并实行开机自动挂载
    linux 判定那块网卡为eth0 eth0对应的物理网卡闪灯30秒
  • 原文地址:https://www.cnblogs.com/feihongwuhen/p/7171052.html
Copyright © 2020-2023  润新知