zoukankan      html  css  js  c++  java
  • 敲代码非常难之logstash之file input插件实现分析

    版权声明:本文为横云断岭原创文章,未经博主同意不得转载。微信公众号:横云断岭的专栏 https://blog.csdn.net/hengyunabc/article/details/25665877

    前言

    敲代码有时候真的有点难,要考虑各种情况。

    应用在执行中,会不断生成日志文件。

    假如要实现一个日志收集的工具。不考虑其他的分析功能,仅仅考虑收集,有哪些方面要考虑的?

    首先看下一般的log框架是怎样输出日志的:

    可能是这种:a.log.1,  a.log.2, a.log.3, a.log.4, a.log.5 循环输出。

    可能是这种: a.2014-5-5.log, a.2014-5-6.log, a.2014-5-7.log,每天生成一个日志文件;

    可能是这种:log.out。每次重新启动都会生成一个新的log.out,覆盖旧的文件。


    那么,我们有哪些方面要实现和注意的?

    • 提供正则或者globs方式的通配符。
    • 要能推断文件是不是新建的。
    • 怎样推断文件有没有更新?
    • 怎样保存文件的读取进度?
    • 假设我们在读取文件的过程中,文件被删除了会怎样?
    • 假设我们在读取文件过程中,进程挂了,读取进度有没有及时保存?
    • 在保存文件进度时,假设挂了,重新启动能不能正确恢复文件进度?
    • 能不能保证读取的内容不反复?
    • 假设日志文件非常快生成。又非常快删除了,能否保证不漏掉?
    • 假设日志文件是软链接(soft link)。能不能正确处理?
    • 文件系统的inode会被回收利用,能不能处理这个?
    • 有没有控制读进内存的数据的大小,防止占用过多的内存?

    logstash的实现

    以下解释下logstash是怎样实现和处理上面的问题的:

    能够配置path參数(Array),当中支持globs风格的匹配。如:

    path => [ "/var/log/messages", "/var/log/*.log" ]

    能够配置exclude參数(Array),排除掉不须要的文件。如:

    exclude => "*.gz"

    利用inode来识别新文件

    logstash把进度保存到所谓的sincedb里,实际上即这种一个文本文件,默认是放在home文件夹下的。如:

    .sincedb_e794081d6134aace51b759aea8cc3be2

    .sincedb_f7a0c8a0def03e0c572511ceea0b9f63

    后面是日志文件。即path的hash值。

    这样就区分了不同的文件名称的日志文件的进度保存问题。

    sincedb文件中是相似这种内容:

    6511055 0 2051 118617881
    5495516 0 2051 155859036
    6348913 0 2051 148511449

    上面的4列各自是:

    inode, major number, minor number, pos。

    当中major number和minor number是设备相关的数字,參考:http://unix.stackexchange.com/questions/73988/linux-major-and-minor-device-numbers

    inode是文件系统给文件分配的是一个号码,參考:http://zh.wikipedia.org/wiki/Inode

    因此logstash区分了设备。文件名称,文件的不同版本号。

    这里引出了一个新问题。用inode来推断文件的不同版本号,是否够准确了?由于inode是会回收再使用的。

    比方依次执行以下的命令,能够发现。两个文件的inode是一样的:

    touch test
    stat test
    rm test 
    touch test
    stat test

    可是由于logstash是没有close掉文件,所以是一直持有inode,所以新的同名的日志文件会有一个新的inode。

    也正是由于这样,假设logstash监视的日志文件假设被删除了,还是能够继续把删除的文件的内容处理完。

    利用inode这点特性,有时能够做一些补救工作,比方不小心把mysql的文件删掉了,还是能够把数据dump出来,由于mysql进程还持有数据文件的inode。

    另外,logstash默认是每隔1秒就尝试读取文件有没有新内容,默认是15秒就扫描,检查有没有新文件。相应stat_interval和discover_interval參数。


    另一些小细节:

    比方每次最多仅仅读取出16394字节的数据,防止占用过多的内存,每5秒推断下是否须要保存新的pos。

    假设日志文件被删除了,也会删除sincedb文件。

    利用rename原子性地保存pos

    当读取到新文件内容时。pos会添加,在保存新的pos到sincedb时,logstash採用了暂时文件的办法:

    先建立一个暂时文件,写入新内容。再调用操作系统提供的remane函数。原子性地替换原来的sincedb文件。

    这种实际上是比較经常使用的技巧了,redis也是这样子做的。

    能否保证不反复,不丢失数据?

    非常遗憾。这是不能的,除非是分布式事务。否则,总有可能丢失或者反复发送数据。不论什么日志收集软件或者消息队列软件都是如此。

    实现的代码

    详细的实现代码就不贴了,由于比較易读,当中logstash使用了filewatch这个库。能够用gem来安装。相关的代码在线查看:

    https://github.com/elasticsearch/logstash/blob/v1.4.1/lib/logstash/inputs/file.rb

    https://github.com/jordansissel/ruby-filewatch/tree/master/lib/filewatch

    和fluentd的in_tail插件比較

    fluentd也是一个非常流行的日志收集工具。

    简单再看了下fluentd的in_tail插件,发现里面还有自己当年提交的一个防止内存占用过大的建议:)

    https://github.com/fluent/fluentd/blob/master/lib/fluent/plugin/in_tail.rb

                    if lines.size >= MAX_LINES_AT_ONCE
                      # not to use too much memory in case the file is very large
                      read_more = true
    即每最多读取1000行,就提交数据。并保存pos。

    fluentd的in_tail插件的原理和logstash的file input是几乎相同的,都是用inode来区分文件是否更新。


    可是fluentd仅仅保存了inode和pos。没有logstash那样把设备都考虑进去了。

    另外fluentd保存pos时,都是以文件追加的方式来保存的,没有像logstash那样是用rename文件来保存到新文件中。显然logstash的实现更加合理。

    扯远一点。logstash部署要比fluentd方便。虽然两者都是用ruby写的。不同的是logstash默认是jruby,仅仅要有JVM就能够跑,fluentd则要安装ruby环境。比較麻烦。

    其他的一些东东:

    logstash大有一统江湖之势,这句话忘记在哪里看到的了。在github上的logstash的start有2000多个。

    logstash + elasticsearch + Kibana的日志收集。搜索,展现的一条龙服务非常流行。

    參考:

    http://unix.stackexchange.com/questions/73988/linux-major-and-minor-device-numbers

    http://zh.wikipedia.org/wiki/Inode

    https://github.com/elasticsearch/logstash/blob/v1.4.1/lib/logstash/inputs/file.rb


  • 相关阅读:
    android之PackageManager简单介绍
    西门子PLC学习笔记二-(工作记录)
    node.js第十课(HTTPserver)
    ubuntu ???????????? no permissions 问题解决
    Web API 设计摘要
    公共 DNS server IP 地址
    用Unicode迎接未来
    vs2010公布时去除msvcp100.dll和msvcr100.dll图讲解明
    linux串口驱动分析
    C++ 中dynamic_cast<>的用法
  • 原文地址:https://www.cnblogs.com/mqxnongmin/p/10725242.html
Copyright © 2011-2022 走看看