zoukankan      html  css  js  c++  java
  • logstash入门

      此文只是logstash的简单入门,作者也只是简单了解logstash,本文只能简单介绍logstash,对完全不懂logstash是啥的人做个引导,因为我就是这样过来的~

    1.logstash是什么?有什么用?

      在网上搜索logstash,搜索结果中logstash一般是和elasticsearch、kibana一起讲的。感觉似乎logstash、elasticsearch、kibana一定要一起用,其实并不是这样的。logstash是用来收集日志用的,完全可以单独使用,只是这几个组合在一起疗效比较好。

         做过项目的都知道,传统的日志一般是直接写文件。这些日志文件里面可能写了函数调用次数、服务请求失败的日志(比如请求内容、时间、IP什么的),这些日志往往内含丰富的内容。通过分析这些日志可以让我们知道系统主要运行哪些服务、什么时候是服务的高峰期、错误比较集中的地方是哪儿,通过了解这些内容,我们可以提升系统的性能、提供更好的服务。日志文件一般是写在本地的,如果一个分布式系统的日志全部都写在本地,我们要聚合、分析这些日志也是相当麻烦的事。这时候logstash就派上用场了,日志还是原来那样写,只不过不是写文件了,而是写到RabbitMQ、Redids这些地方,然后logstash在另一头不断的取出这些日志,然后对这些日志进行一些处理,输出到另外一个地方,比如说elasticsearch或者在线分析的平台什么的。这时候日志就写到一起了,就方便使用了。

    2.logstash基础

       在logstash中,一条条的日志其实都是事件。logstash事件中有一个个不同的字段,每个字段中都有不同的值。在logstash中,值可以有布尔、数值、字符串、数组和Hash表这5种类型。前三种就不说了,数组的写法是这样的["hello", "world", "!"],Hash表的写法是这样的{key1=>value1,key2=>value2}。前面说到logstash就是收集日志、处理日志然后再输出出去。所以logstash就是一种input->filter->output的过程,故logstash中就有input、filter、output这三种类型的插件来处理收集到的日志。我们在配置文件中写好相关的内容、配置好插件,logstash就会按照我们所需要的那样收集、处理并输出日志。一个logstash配置文件至少包含input、output插件,filter插件根据实际需求选择。一个logstash事件的例子(瞎写的)如下:

    1 {
    2     message => "Hello, world!",
    3     @timestamp => "2016-07-17T12:02:58.322Z"
    4     host => "XXX-PC"
    5 }

      刚才说了logstash可以从RabbitMQ、Kafka、Redis这些消息中间件中抽取日志,这需要配置不同的input插件。如果要从某个消息中间件、文件或者其他地方收集日志,那么就需要在配置文件中配置相应的input插件。当然很多时候,实际收集到的日志和我们实际想存储的数据模型有些差别,这时候我们就可以配置filter插件来处理这些日志。一般来说单个filter插件是不能完成任务的,那我们就配置多个,然后日志就按照filter1->filter2->....->filterN这样的顺序处理。处理完了以后就通过output插件推送到不同的地方。

    3.logstash运行

      使用logstash最关键的是写好配置文件,写好配置文件了,logstash就会好好的陪你玩耍。下面举几个例子:

      标准输入到标准输出,并且不做任何处理:

    1 input {
    2     stdin {
    3     }        
    4 }
    5 output {
    6     stdout {
    7         codec => rubydebug
    8     }
    9 }

      这个例子相当简单,将它保存成xxx.conf, 然后运行logstash -f xxx.conf,windows下输入 logstash.bat -f xxx.conf。你在屏幕上输入什么,就会输出一个还有message为什么的logstash事件。

      从redis读取,输出到elasticsearch中:

     1 input {
     2     redis {
     3         key => "logstash-*"
     4         host => "localhost"
     5         port => 6379
     6     }
     7 }
     8 filter {
     9      kv {
    10      }
    11 }
    12 output {
    13     elasticsearch{
    14         hosts => ["localhost:9200"]
    15         index => "logstash"
    16         type => "logstah123"
    17     }
    18     stdout{
    19         codec => rubydebug
    20     }
    21 }

      打开Redis客户端,以logstash-为前缀保存"key1=val1 key2=val2 key3=val3",你会在屏幕上看到key1、key2、key3都成了不同的字段,而且val1 val2 val3就是对应的值,在elasticsearch也以这种方式保存好了。这是因为kv插件可以处理这种有规则的字符串,默认以空格区分一组key-value,以等号区分key和value。可以更改kv插件的field_split和value_split来改变kv插件的运行表现。

    4.相关链接

    logstash官方文档(内含各种插件的用法):

    https://www.elastic.co/guide/en/logstash/current/index.html

    中文书籍:

    http://udn.yyuap.com/doc/logstash-best-practice-cn/get_start/index.html

  • 相关阅读:
    telnet -测试端口号
    JMS与MQ详解(有项目)
    Spring JdbcTemplate方法详解
    Spring任务调度器之Task的使用
    基于注解的Spring AOP的配置和使用
    JSONObject转换JSON--将Date转换为指定格式
    request.getParameterMap()使用方法
    python中的内存管理
    python解释器和变量
    理解什么是操作系统
  • 原文地址:https://www.cnblogs.com/DennisXie/p/5785994.html
Copyright © 2011-2022 走看看