• shell脚本实现网站日志分析统计


    如何用shell脚本分析与统计每天的访问日志,并发送到电子邮箱,以方便每天了解网站情况。
    今天脚本小编为大家介绍一款不错的shell脚本,可以实现如上功能。

    本脚本统计了:
    1、总访问量
    2、总带宽
    3、独立访客量
    4、访问IP统计
    5、访问url统计
    6、来源统计
    7、404统计
    8、搜索引擎访问统计(谷歌,百度)
    9、搜索引擎来源统计(谷歌,百度)

    完整代码:

    #!/bin/bash
    log_path=/home/www.jquerycn.cn/log/access.log.1
    domain="jquerycn.cn"
    email="log@jquerycn.cn"
    maketime=`date +%Y-%m-%d" "%H":"%M`
    logdate=`date -d "yesterday" +%Y-%m-%d`
    total_visit=`wc -l ${log_path} | awk '{print $1}'`
    total_bandwidth=`awk -v total=0 '{total+=$10}END{print total/1024/1024}' ${log_path}`
    total_unique=`awk '{ip[$1]++}END{print asort(ip)}' ${log_path}`
    ip_pv=`awk '{ip[$1]++}END{for (k in ip){print ip[k],k}}' ${log_path} | sort -rn | head -20`
    url_num=`awk '{url[$7]++}END{for (k in url){print url[k],k}}' ${log_path} | sort -rn | head -20`
    referer=`awk -v domain=$domain '$11 !~ /http://[^/]*'"$domain"'/{url[$11]++}END{for (k in url){print url[k],k}}' ${log_path} | sort -rn | head -20`
    notfound=`awk '$9 == 404 {url[$7]++}END{for (k in url){print url[k],k}}' ${log_path} | sort -rn | head -20`
    spider=`awk -F'"' '$6 ~ /Baiduspider/ {spider["baiduspider"]++} $6 ~ /Googlebot/ {spider["googlebot"]++}END{for (k in spider){print k,spider[k]}}'  ${log_path}`
    search=`awk -F'"' '$4 ~ /http://www.baidu.com/ {search["baidu_search"]++} $4 ~ /http://www.google.com/ {search["google_search"]++}END{for (k in search){print k,search[k]}}' ${log_path}`
    echo -e "概况
    报告生成时间:${maketime}
    总访问量:${total_visit}
    总带宽:${total_bandwidth}M
    独立访客:${total_unique}
    
    访问IP统计
    ${ip_pv}
    
    访问url统计
    ${url_num}
    
    来源页面统计
    ${referer}
    
    404统计
    ${notfound}
    
    蜘蛛统计
    ${spider}
    
    搜索引擎来源统计
    ${search}" | mail -s "$domain $logdate log statistics" ${email}

    代码说明:
    需要修改的三个变量log_path,domain和email,然后把此脚本添加到计划任务,就可以每天接收到统计的数据了。

  • 相关阅读:
    Flink 源码阅读环境搭建并调试 Flink-Clients 模块
    阅读 Flink 源码前必会的知识 SPI 和 Classloader
    如何 debug hive 源码,知其然知其所以然
    Flink SQL 核心概念剖析与编程案例实战
    Apache Flink 如何正确处理实时计算场景中的乱序数据
    Flink 编程接口
    Flink JobManager 和 TaskManager 原理
    一文带你了解 Flink 的基本组件栈
    flink有什么优势值得大家这么热衷
    实时计算数据架构的演变
  • 原文地址:https://www.cnblogs.com/clarke/p/5454386.html
Copyright © 2020-2023  润新知