zoukankan      html  css  js  c++  java
  • 【转】纯手工玩转 Nginx 日志

    Nginx 日志对于大部分人来说是个未被发掘的宝藏,总结之前做某日志分析系统的经验,和大家分享一下 Nginx 日志的纯手工分析方式。

    Nginx 日志相关配置有 2 个地方:access_log 和 log_format 。

    默认的格式:

    1. access_log /data/logs/nginx-access.log;
    2. log_format old '$remote_addr [$time_local] $status $request_time $body_bytes_sent '
    3. '"$request" "$http_referer" "$http_user_agent"';

    相信大部分用过 Nginx 的人对默认 Nginx 日志格式配置都很熟悉,对日志的内容也很熟悉。但是默认配置和格式虽然可读,但是难以计算。

    Nginx 日志刷盘相关策略可配置:

    比如,设置 buffer,buffer 满 32k 才刷盘;假如 buffer 不满 5s 钟强制刷盘的配置如下:

    1. access_log /data/logs/nginx-access.log buffer=32k flush=5s;

    这决定了是否实时看到日志以及日志对磁盘 IO 的影响。

    Nginx 日志能够记录的变量还有很多没出现在默认配置中:

    比如:

    • 请求数据大小:$request_length
    • 返回数据大小:$bytes_sent
    • 请求耗时:$request_time
    • 所用连接序号:$connection
    • 当前连接发生请求数:$connection_requests

    Nginx 的默认格式不可计算,需要想办法转换成可计算格式,比如用控制字符 ^A (Mac 下 ctrl+v ctrl+a 打出)分割每个字段。

    log_format 的格式可以变成这样:

    1. log_format new '$remote_addr^A$http_x_forwarded_for^A$host^A$time_local^A$status^A'
    2. '$request_time^A$request_length^A$bytes_sent^A$http_referer^A$request^A$http_user_agent';

    这样之后就通过常见的 Linux 命令行工具进行分析了:

    • 查找访问频率最高的 URL 和次数:
      1. cat access.log | awk -F ‘^A ‘{print $10}’ | sort | uniq -c
    • 查找当前日志文件 500 错误的访问:
      1. cat access.log | awk -F ‘^A ‘{if($5 == 500) print $0}’
    • 查找当前日志文件 500 错误的数量:
      1. cat access.log | awk -F ‘^A ‘{if($5 == 500) print $0}’ | wc -l
    • 查找某一分钟内 500 错误访问的数量:
      1. cat access.log | awk -F ‘^A ‘{if($5 == 500) print $0}’ | grep 09:00 | wc-l
    • 查找耗时超过 1s 的慢请求:
      1. tail -f access.log | awk -F ‘^A ‘{if($6>1) print $0}’
    • 假如只想查看某些位:
      1. tail -f access.log | awk -F ‘^A ‘{if($6>1) print $3″|”$4}’
    • 查找 502 错误最多的 URL:
      1. cat access.log | awk -F ‘^A ‘{if($5==502) print $11}’ | sort | uniq -c
    • 查找 200 空白页
      1. cat access.log | awk -F ‘^A ‘{if($5==200 && $8 < 100) print $3″|”$4″|”$11″|”$6}’
    • 查看实时日志数据流
      1. tail -f access.log | cat -e

      或者

      1. tail -f access.log | tr ‘^A ‘|’

    总结

    照着这个思路可以做很多其他分析,比如 UA 最多的访问;访问频率最高的 IP;请求耗时分析;请求返回包大小分析;等等。

    这就是一个大型 Web 日志分析系统的原型,这样的格式也是非常方便进行后续大规模 batching 和 streaming 计算。

    转载自: http://blog.eood.cn/nginx_logs    作者: Bruce Dou

  • 相关阅读:
    Linux虚拟机突然不能上网了
    项目经验不丰富、技术不突出的程序员怎么打动面试官?
    10分钟看懂!基于Zookeeper的分布式锁
    BATJ等大厂最全经典面试题分享
    分享30道Redis面试题,面试官能问到的我都找到了
    一个六年Java程序员的从业总结:比起掉发,我更怕掉队
    我是这样手写 Spring 的(麻雀虽小五脏俱全)
    自述:为什么一部分大公司还在采用过时的技术,作为技术人而言该去大公司还是小公司
    Java精选面试题之Spring Boot 三十三问
    Java程序员秋招面经大合集(BAT美团网易小米华为中兴等)
  • 原文地址:https://www.cnblogs.com/phpworld/p/6339885.html
Copyright © 2011-2022 走看看