zoukankan      html  css  js  c++  java
  • 3.awk数组详解及企业实战案例

    awk数组详解及企业实战案例

    3.打印数组:
    1. [root@nfs-server test]# awk 'BEGIN{array[1]="zhurui";array[2]="zhuzhu";for(key in array) print key,array[key]}'
    2. 1 zhurui
    3. 2 zhuzhu
    4. [root@nfs-server test]#
    1. [root@nfs-server test]# awk 'BEGIN{array[1]="zhurui";array[2]="zhuzhu";}END {for(key in array) print key,array[key]}'/etc/hosts
    2. 1 zhurui
    3. 2 zhuzhu
    1. 把文件内容第一列作为下标,第二列作为值,放入数组然后输出。
    2. [root@nfs-server test]# cat t3.log
    3. 1 zhurui
    4. 2 zhuzhu
    5. [root@nfs-server test]# awk 'BENGIN{S[$1]=$2;}END{for(k in S) print k,S[k]}' t3.log
    6. [root@nfs-server test]# awk '{S[$1]=$2;}END{for(k in S) print k,S[k]}' t3.log
    7. 1 zhurui
    8. 2 zhuzhu
    4、脚本:
    1. #!/bin/awk
    2. BEGIN{
    3. array[1]="zhurui"
    4. array[2]="zhuzhu"
    5. for(key in array)
    6. print key,array[key];
    7. }
    1. [root@nfs-server test]# awk -f t2.awk
    2. 1 zhurui
    3. 2 zhuzhu
    4. [root@nfs-server test]#
    5.把文件内容第一列作为下标k,第二列作为值S[k],放入数组S[]然后输出。
    1. [root@nfs-server test]# cat t3.log
    2. 1 zhurui
    3. 2 zhuzhu
    4. [root@nfs-server test]# awk 'BENGIN{S[$1]=$2;}END{for(k in S) print k,S[k]}' t3.log
    5. [root@nfs-server test]# awk '{S[$1]=$2;}END{for(k in S) print k,S[k]}' t3.log
    6. 1 zhurui
    7. 2 zhuzhu
    运用综上理解,请做考试题:处理以下文件内容,将域名取出并根据域名进行计数排序处理:(百度和SOHU面试题)
    test.log
    1. [root@nfs-server test]# awk -F "/"'{S[$3]=S[$3]+1;}END{for(k in S) print k,S[k]}' test.log
    2. mp3.judong.org 1
    3. post.judong.org 2
    4. www.judong.org 3
    最终答案:
    1. [root@nfs-server test]# awk -F "/"'{S[$3]++}END{for(k in S) print k,S[k]}' test.log|sort -rn -k2|head
    2. www.judong.org 3
    3. post.judong.org 2
    4. mp3.judong.org 1
    5. [root@nfs-server test]#
    例3:统计Web日志单IP访问排名(这个工作中常用,面试也常用)

    对于统计访问连接IP个数的答案为:
    1. [root@nfs-server test]# awk -F " "'{S[$1]=S[$1]+1;}END{for (k in S) print k,S[k]}' access-test.log|sort -rn|head ##此方法较复杂
    2. 10.0.0.3775
    3. 10.0.0.1322
    4. 10.0.0.1245
    5. 10.0.0.1202
    6. 10.0.0.1082
    7. 10.0.0.1001
    8. [root@nfs-server test]# awk -F " "'{S[$1]++;}END{for (k in S) print k,S[k]}' access-test.log|sort -rn|head ##上一步的简化版
    9. 10.0.0.3775
    10. 10.0.0.1322
    11. 10.0.0.1245
    12. 10.0.0.1202
    13. 10.0.0.1082
    14. 10.0.0.1001
    15. [root@nfs-server test]# awk -F " "'{Z[$1]++;}END{for (k in Z) print k,Z[k]}' access-test.log|sort -rn|head
    16. 10.0.0.3775
    17. 10.0.0.1322
    18. 10.0.0.1245
    19. 10.0.0.1202
    20. 10.0.0.1082
    21. 10.0.0.1001
    方法1:
    方法2:
     
    例4:统计企业工作中高并发linux服务器不同网络连接状态对应的数量

    方法1:
    1. [root@nfs-server test]# awk '/^tcp/ {S[$NF]++}END{for(k in S) print S[k],k}' netstat.log|sort -rn|head
    2. 105 TIME_WAIT
    3. 101 ESTABLISHED
    4. 55 FIN_WAIT2
    5. 7 FIN_WAIT1
    6. 5 SYN_RECV
    7. 5 LISTEN
    8. 3 LAST_ACK
    9. 1 CLOSING
    10. [root@nfs-server test]#
    方法2:
    1. [root@nfs-server test]# awk '/^tcp/ {print $NF}' netstat.log|sort|uniq -c|sort -rn|head
    2. 105 TIME_WAIT
    3. 101 ESTABLISHED
    4. 55 FIN_WAIT2
    5. 7 FIN_WAIT1
    6. 5 SYN_RECV
    7. 5 LISTEN
    8. 3 LAST_ACK
    9. 1 CLOSING
    10. [root@nfs-server test]#
    例5:
    分析图片服务日志,把日志(每个图片访问次数*图片大小的总和)排行,取top10,也就是计算每个url的总访问大小

    说明:范例7的生产环境应用:这个功能可以用于IDCCDN网站流量带宽很高,然后通过分析服务器日志哪些元素占用流量过大,进而进行优化裁剪该图片(见老男孩发布的《淘宝的双十一超大流量应对文章点评》),压缩js等措施。

    本题需要输出三个指标: 【访问次数】    【访问次数*单个文件大小】   【文件名(可以带URL)】

    解答

    测试数据

    59.33.26.105 - - [08/Dec/2010:15:43:56 +0800] "GET /static/images/photos/2.jpg HTTP/1.1" 200 11299"http://oldboy.blog.51cto.com/static/web/column/17/index.shtml?courseId=43" "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)"

    59.33.26.105 - - [08/Dec/2010:15:43:56 +0800] "GET /static/images/photos/2.jpg HTTP/1.1" 200 11299"http://oldboy.blog.51cto.com/static/web/column/17/index.shtml?courseId=43" "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)"

    59.33.26.105 - - [08/Dec/2010:15:44:02 +0800] "GET /static/flex/vedioLoading.swf HTTP/1.1" 200 3583"http://oldboy.blog.51cto.com/static/flex/AdobeVideoPlayer.swf?width=590&height=328&url=/[[DYNAMIC]]/2" "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)"

    124.115.4.18 - - [08/Dec/2010:15:44:15 +0800] "GET /?= HTTP/1.1" 200 46232 "-" "-"

    124.115.4.18 - - [08/Dec/2010:15:44:25 +0800] "GET /static/js/web_js.js HTTP/1.1" 200 4460 "-" "-"

    124.115.4.18 - - [08/Dec/2010:15:44:25 +0800] "GET /static/js/jquery.lazyload.js HTTP/1.1" 200 1627 "-" "-"

    法一:通过两个数组来计算

    因为我们要的最终结果是某个文件的访问次数和消耗的流量,所以考虑建立以文件名为索引的两个数组,一个存储访问次数,一个保存消耗的流量,这样当使用awk按行遍历文件时,对次数数组+1,同时对流量数组进行文件大小的累加,等文件扫描完成,再遍历输出两个数组既可以得到该文件的反问次数和总的流量消耗。

    [root@locatest scripts]# awk '{array_num[$7]++;array_size[$7]+=$10}END{for(x in array_num){print array_size[x],array_num[x],x}}' access_2010-12-8.log |sort -rn -k1|head -10 >1.log

    法二:

    [root@locatest scripts]# awk '{print $7" " $10}' access_2010-12-8.log|awk '{S[$1]+=$2;S1[$1]+=1}END{for(i in S) print S[i],S1[i],i}'|sort -rn|head -10 >2.log

    [root@locatest scripts]# diff 1.log 2.log

    [root@locatest scripts]# cat 1.log

    57254 1 /static/js/jquery-jquery-1.3.2.min.js

    46232 1 /?=

    44286 1 //back/upload/course/2010-10-25-23-48-59-048-18.jpg

    33897 3 /static/images/photos/2.jpg

    11809 1 /back/upload/teacher/2010-08-30-13-57-43-06210.jpg

    10850 1 /back/upload/teacher/2010-08-06-11-39-59-0469.jpg

    6417 1 /static/js/addToCart.js

    4460 1 /static/js/web_js.js

    3583 2 /static/flex/vedioLoading.swf

    2686 1 /static/js/default.js



  • 相关阅读:
    北京联通光猫WO-36(HG220GS-U)改为桥接模式
    使用DataGrip导入数据
    Spring知识点
    mybatis-generator
    项目中mybatis连接mysql常见问题
    Spring AOP
    Volatile
    Redis知识点
    Spring IOC
    Observer模式
  • 原文地址:https://www.cnblogs.com/hackerer/p/5365967.html
Copyright © 2011-2022 走看看