Awstats分析nginx日志
前言:
在实际的网站运营中,我们经常需要了解到网站的访问情况,例如每天有多少 IP 在访问、PV 数是多少、哪个 URL 访问量最大、用户使用最多的浏览器是哪个、都是通过什么方式知道这个网站的以及有多少用户访问出错等等,通过掌握这些信息来提高用户的体验,从而改善网站的质量。一般我们可以通过一些免费的访问统计网站例如 Google Analytics 来或者这些信息。但不足之处是这类网站只能对页面进行分析,不包括静态文件;另外可能有很多的站长不愿意使用这类工具来暴露自己的数据,种种的这些因素使站长希望自己来分析访问日志。而 awstats 就可以满足所有的这些需求。
Awstats 是在 SourceForge 上发展很快的一个基于 Perl 的 WEB 日志分析工具,一个充分的日志分析让 Awstats 显示您下列资料:
●访问次数、独特访客人数,
●访问时间和上次访问,
●使用者认证、最近认证的访问,
●每周的高峰时间(页数,点击率,每小时和一周的千字节),
●域名/国家的主机访客(页数,点击率,字节,269域名/国家检测, geoip 检测),
●主机名单,最近访问和未解析的 IP 地址名单
●大多数看过的进出页面,
●档案类型,
●网站压缩统计表(mod_gzip 或者 mod_deflate),
●使用的操作系统 (每个操作系统的页数,点击率 ,字节, 35 OS
detected),
●使用的浏览器,
●机器人访问(检测
319 个机器人),
●蠕虫攻击 (5 个蠕虫家族),
●搜索引擎,利用关键词检索找到你的地址,
●HTTP 协议错误(最近查阅没有找到的页面),
●其他基于 URL 的个性报导,链接参数, 涉及综合行销领域目的.
●贵网站被加入"最喜爱的书签".次数.
●屏幕大小(需要在索引页补充一些 HTML 标签).
●浏览器的支持比例: Java, Flash, RealG2
reader, Quicktime reader, WMA reader, PDF reader.
●负载平衡服务器比率集群报告.
Awstats 的运行是需要 PERL 环境的支持,从 awstats 的文档来看,它对 Apache HTTP Server 的支持是非常完美的,而当我们把 Web 服务器换成 Nginx 后,要运行 awstats 变得很麻烦。首先 Nginx 本身对 Perl 的支持是比较弱的,甚至官方也不建议使用;另外在日志格式上有需要修改后才能运行。
本文主要介绍通过让 awstats 对日志统计的结果生成静态页面,然后通过 Nginx 输出以达到统计 Nginx 访问日志的效果,其中还包括如何让 Nginx 自动切割日志文件。
一、配置 Nginx 自动切割日志
跟 Apache HTTP Server(以下称 Apache)不同的是,Apache 可以将日志输出通过管道的方式进行重新定向,依此来进行自动的日志切割。Nginx 在现今版本上还没能跟 Apache 一样,通过%YY等参数按日期分批创建日志,但是通过给 nginx 进程发送一个特定的信号,可以使 nginx 重新生成日志文件。我们可以定期执行一个 Shell 脚本来切换日志,重新命名或转移,具体的脚本如下:
# mv /www/logs/www.jackbillow.com_access.log /www/logs/www.jackbillow.com_access_`date +%Y%m%d`.log # kill -s USR1 `cat /var/run/nginx.pid` #使用USR1参数通知Nginx进程切换日志文件 |
将以上脚本内容保存为文件名为 nginxlogrotate.sh 存到自定的目录中,例如 /usr/local/bin/nginxlogrotate.sh
使用 Crontab 让该脚本程序在每天晚上 11 点 59 分自动执行,即可做到按天创建日志。
1、安装之前,必须确认你的服务器上 Perl 的环境已经就绪。
查看当前环境 Perl 版本的命令是 perl –version
我们还需要对 Nginx 的日志格式做个小修改,不然 awstats 将无法进行统计。
例子如下(加粗部分):
# vi /usr/local/nginx/conf/nginx.conf '"$request" $status $bytes_sent ' '"$http_referer" "$http_user_agent" ' '"$gzip_ratio" "$http_x_forwarded_for" '; |
2、安装awstats
下载地址:
http://prdownloads.sourceforge.net/awstats/awstats-7.0.tar.gz
下载最新版本的 awstats 包,下载地址请见文章最后的参考资料。把下载后的 tar 包解压到任意目录中,例: /usr/local/awstats 。然后执行 tools 目录中的 awstats_configure.pl 配置向导,创建一个新的统计。
-----> Check for web server install |
回车
Your web server config file(s) could not be found. |
回车
-----> Define config file name to create |
回车
-----> Define config file path |
使用默认直接回车,接下来便会出现以下的提示
----> Add update process inside a scheduler |
回车完成向导,接下来修改 www.moabc.net 的统计配置
#vi /etc/awstats/awstats.www.moabc.net.conf
找到统计的日志文件的路径
LogFile="/var/log/httpd/mylog.log"
改为
LogFile="/opt/nginx/logs/access_%YYYY-0%MM-0%DD-0.log
对应上边 Nginx 日志切割程序的所生成的目录存放结构,要注意 Awstats 的年月日格式的跟 Nginx 的写法有所不同。我们现在执行统计的顺序是:
Nginx 产生日志 –> 日志切割 –> Nginx 继续产生日志 –> 另存切割日志 –> 交由Awstats统计 –> 生成结果
在本文中 Awstats 所统计的日志,是已切下来的那部分。也能调转顺序,先统计完了再切。不过这比较容易造成统计的遗漏。配置修改完成后,保存退出。然后我们可以开始试一下手动执行。
- 先执行日志切割脚本 logcron.sh 把 Nginx 的日志切下来。
- 然后执行 Awstats 日志更新程序开始统计分析。
# /opt/nginx/sbin/logcron.sh |
看到以上显示,证明日志切割和 Awstats 都已经运行无误了。统计分析完成后,结果还在 Awstats 的数据库中。在 Apache 上,可以直接打开 Perl 程序的网页查看统计。 但本文开始时已经提到,Nginx 对 Perl 支持并不好,所以我们要换个方法,利用 awstats 的工具将统计的结果生成静态文件,具体的步骤如下:
- 首先在 webroot 目录下创建一个文件夹。例:/data/webroot/awstats
- 然后让 Awstats 把静态页面生成到该目录中
# mkdir
/data/webroot/awstats |
上述命令的具体意思如下:
- /usr/local/awstats/tools/awstats_buildstaticpages.pl Awstats 静态页面生成工具
- -update -config=www.jackbillow.com 更新配置项
- -lang=cn 语言为中文
- -dir=/www/wwwroot/www.jackbillow.com/awstats 统计结果输出目录
- -awstatsprog=/usr/local/awstats/wwwroot/cgi-bin/awstats.pl Awstats 日志更新程序路径。
接下来,只需在nginx.conf 中,把该目录配置上去即可。 例子如下:(加粗部分):
server { |
用浏览器查看到统计的详细结果 http://www.jackbillow.com/awstats/awstats.www.jackbillow.com.html
至此,使用 awstats 已能完全支持 Nginx 的日志统计。