zoukankan      html  css  js  c++  java
  • Nginx Log日志统计分析常用命令

    1.Nginx访问日志中 按照ip请求次数统计命令(必备)

    cat access.log |awk '{print $1}'|sort -nr |uniq -c |sort -nr |more
       2761 183.185.117.4
       1828 221.205.161.114
       1672 223.12.67.104
       1106 223.12.161.30
        951 183.185.112.241
        876 223.11.221.212
        795 223.11.15.195
        793 183.185.112.128

    2.统计IP访问量(独立ip访问数量)

    awk '{print $1}' access.log | sort -n | uniq | wc -l

    3.查看某一时间段的IP访问量(4-5点)

    grep "07/Apr/2017:0[4-5]" access.log | awk '{print $1}' | sort | uniq -c| sort -nr | wc -l  
    

    4.查看访问最频繁的前100个IP    (必备)

    awk '{print $1}' access.log | sort -n |uniq -c | sort -rn | head -n 100
    

    5.查看访问100次以上的IP

    awk '{print $1}' access.log | sort -n |uniq -c |awk '{if($1 >100) print $0}'|sort -rn
    

    6.查询某个IP的详细访问情况,按访问频率排序

    grep '127.0.01' access.log |awk '{print $7}'|sort |uniq -c |sort -rn |head -n 100
    

    7.查看访问最频的页面(TOP100)

    awk '{print $7}' access.log | sort |uniq -c | sort -rn | head -n 100
    

    8.查看访问最频的页面([排除php页面】(TOP100)

    grep -v ".php"  access.log | awk '{print $7}' | sort |uniq -c | sort -rn | head -n 100 
    

    9.查看页面访问次数超过100次的页面

    cat access.log | cut -d ' ' -f 7 | sort |uniq -c | awk '{if ($1 > 100) print $0}' | less
    

    10.查看最近1000条记录,访问量最高的页面

    tail -1000 access.log |awk '{print $7}'|sort|uniq -c|sort -nr|less
    

    11.统计每秒的请求数,top100的时间点(精确到秒)

    awk '{print $4}' access.log |cut -c 14-21|sort|uniq -c|sort -nr|head -n 100'
    

    12.统计每分钟的请求数,top100的时间点(精确到分钟)

    awk '{print $4}' access.log |cut -c 14-18|sort|uniq -c|sort -nr|head -n 100
    

    13.统计每小时的请求数,top100的时间点(精确到小时)

    awk '{print $4}' access.log |cut -c 14-15|sort|uniq -c|sort -nr|head -n 100
    

    14.性能分析,在nginx log中最后一个字段加入$request_time

    列出传输时间超过 3 秒的页面,显示前20条

    cat access.log|awk '($NF > 3){print $7}'|sort -n|uniq -c|sort -nr|head -20
    

    列出php页面请求时间超过3秒的页面,并统计其出现的次数,显示前100条

    cat access.log|awk '($NF > 1 &&  $7~/.php/){print $7}'|sort -n|uniq -c|sort -nr|head -100
    

    15.统计蜘蛛抓取次数

    grep 'Baiduspider' access.log |wc -l
    

    16.统计蜘蛛抓取404的次数

    grep 'Baiduspider' access.log |grep '404' | wc -l
    

    17.TCP连接统计,查看当前TCP连接数

    netstat -tan | grep "ESTABLISHED" | grep ":80" | wc -l
    

    18.用tcpdump嗅探80端口的访问看看谁最高

    tcpdump -i eth0 -tnn dst port 80 -c 1000 | awk -F"." '{print $1"."$2"."$3"."$4}' | sort| uniq -c | sort -nr
     
    实例脚本:
    获取前一分钟nginx访问日志条数
    #!/bin/bash
      
    export LANG=C
    export PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin
    TIME=$(date -d "1 minute ago" +"%d/%h/%Y:%H:%M")
      
    grep "$TIME" /var/log/nginx/access.log | wc -l

    获取前一分钟nginx错误日志条数

    #!/bin/bash
      
    export LANG=C
    export PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin
    TIME=$(date -d "1 minute ago" +"%Y-%m-%d %H:%M")
      
    grep "$TIME" /var/log/nginx/error.log | wc -l

    查询访问最频繁的IP 倒序排序列表

    awk '{print $1}' access*.log|sort | uniq -c |sort -n -k 1 -r|more

    根据时间段统计查看日志
    cat access.log| sed -n '/14/Mar/2015:21/,/14/Mar/2015:22/p'|more

    3、每秒客户端请求数 TOP5

    awk  -F'[ []' '{print $5}' access.log|sort|uniq -c|sort -rn|head -5

    4、访问最频繁IP Top5

    awk '{print $1}' access.log|sort |uniq -c | sort -rn |head -5

    5、访问最频繁的URL TOP5

    awk '{print $7}' access.log|sort |uniq -c | sort -rn |head -5

    6、响应大于10秒的URL TOP5

    awk '{if ($12 > 10){print $7}}' access.log|sort|uniq -c|sort -rn |head -5

    7、HTTP状态码(非200)统计 Top5

    awk '{if ($13 != 200){print $13}}' access.log|sort|uniq -c|sort -rn|head -5

    8、分析请求数大于50000的源IP的行为

    awk '{print $1}' access.log|sort |uniq -c |sort -rn|awk '{if ($1 > 50000){print $2}}' > tmp.txt 
    for i in $(cat tmp.txt) 
    do
      echo $i  >> analysis.txt 
      echo "访问行为统计" >> analysis.txt 
      grep $i  access.log|awk '{print $6}' |sort |uniq -c | sort -rn |head -5 >> analysis.txt 
      echo "访问接口统计" >> analysis.txt 
      grep $i  access.log|awk '{print $7}' |sort |uniq -c | sort -rn |head -5 >> analysis.txt 
      echo -e " "  >> /root/analysis/$Ydate.txt 
    done

    注:如果源IP来自代理服务器,应将第一条命令过滤地址改为$http_x_forwarded_for地址
    awk '{print $NF}' access.log|sort |uniq -c |sort -rn|awk '{if ($1 > 50000){print $2}}' > tmp.txt

    四、延伸
        Nginx日志按日切割后可使用上述命令得出每日网站流量分析概况,然后可以写一个Python脚本读取后发送。也可以将数据导入MySQL然后使用Python绘制曲线。当然使用日志分析系统,如ELK,效果更佳。


    netstat -ntu | awk ‘{print $5}’ | cut -d: -f1 | sort | uniq -c | sort -n 
    执行后,将会显示服务器上所有的每个IP多少个连接数。 
  • 相关阅读:
    java实现转方阵
    java实现转方阵
    java实现取球游戏
    java实现取球游戏
    java实现取球游戏
    java实现取球游戏
    java实现取球游戏
    java实现蓝桥杯约瑟夫环
    java实现蓝桥杯约瑟夫环
    免费css布局和模板集合
  • 原文地址:https://www.cnblogs.com/steven9898/p/11298787.html
Copyright © 2011-2022 走看看