zoukankan      html  css  js  c++  java
  • Nginx的日志分析

    一、概念

    并发连接数
        客户端向服务器发起请求,并建立了TCP连接。每秒钟服务器链接的总TCP数量,就是并发连接数。
    请求数
        请求数指的是客户端在建立完连接后,向http服务发出GET/POST/HEAD数据包。
        拓展:服务器返回了请求结果后有两种情况:

    http数据包头包含Close字样,关闭本次TCP连接;

    http数据包头包含Keep-Alive字样,本次连接不关闭,可继续通过该连接继续向http服务发 送请求,用于减少TCP并发连接数。

    PV(page view)
        访问量,即页面浏览量或者点击量,用户每次对网站的访问均被记录1次。用户对同一页面的多次访问,访问量值累计
    UV(unique visitor)
        独立访客量。将每个独立设备(以cookie为依据)视为一位访客,一天之内(00:00-24:00)的访客数量。一天之内相同cookie的访问只被计算1次。
    独立IP
        00:00-24:00内相同IP地址只被计算一次

    二、Nginx配置

    版本
        nginx version: nginx/1.10.2
    日志配置项
        access_log    /var/log/access.log  access;

    日志格式
    log_format access  '$remote_addr - $remote_user [$time_local] "$request" $request_body  '
                      '$upstream_addr $upstream_response_time $request_time '
                      '$status $body_bytes_sent "$http_referer" '
                      '"$http_user_agent" $http_x_forwarded_for ' ;

    三、常用日志分析命令
    1、总请求数

    wc -l access.log |awk '{print $1}'

    2、独立IP数

    awk '{print $1}' access.log|sort |uniq |wc -l

    3、每秒客户端请求数 TOP5

    awk  -F'[ []' '{print $5}' access.log|sort|uniq -c|sort -rn|head -5

    4、访问最频繁IP Top5

    awk '{print $1}' access.log|sort |uniq -c | sort -rn |head -5

    5、访问最频繁的URL TOP5

    awk '{print $7}' access.log|sort |uniq -c | sort -rn |head -5

    6、响应大于10秒的URL TOP5

    awk '{if ($12 > 10){print $7}}' access.log|sort|uniq -c|sort -rn |head -5

    7、HTTP状态码(非200)统计 Top5

    awk '{if ($13 != 200){print $13}}' access.log|sort|uniq -c|sort -rn|head -5

    8、分析请求数大于50000的源IP的行为

    awk '{print $1}' access.log|sort |uniq -c |sort -rn|awk '{if ($1 > 50000){print $2}}' > tmp.txt 

    .分析9点到12点的总访问量

    sed -n "/2019:09:00/,/2019:12:00/"p access_20190307.log|more


    for i in $(cat tmp.txt) 
    do
      echo $i  >> analysis.txt 
      echo "访问行为统计" >> analysis.txt 
      grep $i  access.log|awk '{print $6}' |sort |uniq -c | sort -rn |head -5 >> analysis.txt 
      echo "访问接口统计" >> analysis.txt 
      grep $i  access.log|awk '{print $7}' |sort |uniq -c | sort -rn |head -5 >> analysis.txt 
      echo -e " "  >> /root/analysis/$Ydate.txt 
    done

    注:如果源IP来自代理服务器,应将第一条命令过滤地址改为$http_x_forwarded_for地址
    awk '{print $NF}' access.log|sort |uniq -c |sort -rn|awk '{if ($1 > 50000){print $2}}' > tmp.txt

    四、延伸
        Nginx日志按日切割后可使用上述命令得出每日网站流量分析概况,然后可以写一个Python脚本读取后发送。也可以将数据导入MySQL然后使用Python绘制曲线。当然使用日志分析系统,如ELK,效果更佳。

  • 相关阅读:
    《你又怎么了我错了行了吧》【Alpha】Scrum meeting 4
    《你又怎么了我错了行了吧》【Alpha】Scrum meeting 3
    《你又怎么了我错了行了吧》【Alpha】Scrum meeting 2
    《你又怎么了我错了行了吧》第八次团队作业:Alpha冲刺
    《你又怎么了我错了行了吧》【Alpha】Scrum meeting 1
    【Beta】 Scrum meeting 3
    【Beta】Scrum meeting 2
    【Beta】Scrum Meeting 1
    实验十三 团队作业9:BETA冲刺与团队项目验收
    实验十二 团队作业8:软件测试与Alpha冲刺 第五天
  • 原文地址:https://www.cnblogs.com/L1-5551/p/12875842.html
Copyright © 2011-2022 走看看