zoukankan      html  css  js  c++  java
  • linux日志分割、去重、统计

    一、实例

    单条日志模板:

    2018-11-08 02:17:22 [Iceberg]process params:IcebergOfferServiceImpl.Params(pk=BF06NA2YEE60DKXVL0ARUJ5N, ua=Mozilla/5.0 (Linux; Android 6.0.1; SM-A500F Build/MMB29M; wv) AppleWebKit/537.36 (KHTML, like Ge
    cko) Version/4.0 Chrome/70.0.3538.80 Mobile Safari/537.36, gd=1b56f589-70e4-4596-863e-d0c02bb4ef57, co=RU, ln=RU, sn=6.0, sc=23, pn=com.galaxys.launcher, cv=49, cn=4.8, nt=WIFI, ss=720x1280, rm=1892, st=
    0, af=android, igi=0, irt=0, aid=)
    

    需求:

    解析出上面的gd字段,去重,并统计一共多少条

    实现:

    cat debug.log|grep "process params:"|awk -F " gd=" '{print $2}'|awk -F ", co=" '{print $1}'|uniq|wc -l
    

    效果:

    20566
    

    二、命令解析

    • cat debug.log

    读取日志文件

    • grep "process params:"

    关键字过滤日志

    • awk -F " gd=" '{print $2}'|awk -F ", co=" '{print $1}'

    用关键字切割日志,并打印出想要的部分

    • uniq

    去重

    • wc -l

    统计条数

  • 相关阅读:
    lesson4Embedding-fastai
    lesson3 overfitting -fastai
    cell-augmented
    ROI-Align解决方案
    软件安装
    lesson1-fastai
    mask-rcnn
    代码basic讲解
    skearn/pandas
    HDU1087上升子序列的最大和
  • 原文地址:https://www.cnblogs.com/diffx/p/9929408.html
Copyright © 2011-2022 走看看