zoukankan      html  css  js  c++  java
  • ELK 日志分析平台 (Elasticsearch + Logstash + Kibana) : 图解+秒懂+史上最全

    ELK平台介绍

    Elasticsearch + Logstash + Kibana(ELK)是一套开源的日志管理方案,分析网站的访问情况时我们一般会借助Google/百度/CNZZ等方式嵌入JS做数据统计,但是当网站访问异常或者被攻击时我们需要在后台分析如Nginx的具体日志,而Nginx日志分割/GoAccess/Awstats都是相对简单的单节点解决方案,针对分布式集群或者数据量级较大时会显得心有余而力不足,而ELK的出现可以使我们从容面对新的挑战。

    日志主要包括系统日志、应用程序日志和安全日志。系统运维和开发人员可以通过日志了解服务器软硬件信息、检查配置过程中的错误及错误发生的原因。经常分析日志可以了解服务器的负荷,性能安全性,从而及时采取措施纠正错误。

    通常,日志被分散的储存不同的设备上。如果你管理数十上百台服务器,你还在使用依次登录每台机器的传统方法查阅日志。这样是不是感觉很繁琐和效率低下。当务之急我们使用集中化的日志管理,例如:开源的syslog,将所有服务器上的日志收集汇总。

    集中化管理日志后,日志的统计和检索又成为一件比较麻烦的事情,一般我们使用grep、awk和wc等Linux命令能实现检索和统计,但是对于要求更高的查询、排序和统计等要求和庞大的机器数量依然使用这样的方法难免有点力不从心。

    开源实时日志分析ELK平台能够完美的解决我们上述的问题,ELK由ElasticSearch、Logstash和Kiabana三个开源工具组成。

    官方网站:https://www.elastic.co/products

    • Elasticsearch是个开源分布式搜索引擎,它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。
    • Logstash是一个完全开源的工具,他可以对你的日志进行收集、过滤,并将其存储供以后使用(如,搜索)。
    • Kibana 也是一个开源和免费的工具,它Kibana可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助您汇总、分析和搜索重要数据日志。

    扩展阅读

    CentOS 7.x安装ELK(Elasticsearch+Logstash+Kibana) - http://www.chenshake.com/centos-install-7-x-elk-elasticsearchlogstashkibana/

    Centos 6.5 安装nginx日志分析系统 elasticsearch + logstash + redis + kibana -http://blog.chinaunix.net/xmlrpc.php?r=blog/article&uid=17291169&id=4898582

    logstash-forwarder and grok examples - https://www.ulyaoth.net/threads/logstash-forwarder-and-grok-examples.32413/

    三斗室 - http://chenlinux.com/

    elastic - https://www.elastic.co/guide

    LTMP索引 - http://wsgzao.github.io/index/#LTMP

    容器化之后的日志诉求

    随着服务容器化,跑在一台CentOS服务器上,服务器搭建了docker环境,安装了docker-compose,但在日志处理方面,暂时没有一个好的方法能够收集完全的日志,只能依赖进入至服务器后,以docker logs containerID的方法来进入查看,非常不方便,之前也有关注ELK的技术,但一直在开发系统功能,全力实现,今天得空,重新想起了ELK查看日志的任务。

    说明: 计划基于我的高可用环境实操,来写一个elk 日志的博文,以下是人家的内容,仅供参考,等我的高可用环境实操,再来补充这块。

    ELK工作的原理图

    画了一个ELK工作的原理图:

    img

    如图:Logstash收集AppServer产生的Log,并存放到ElasticSearch集群中,而Kibana则从ES集群中查询数据生成图表,再返回给Browser。

    ELK平台搭建

    系统环境

    System: Centos release 6.7 (Final)

    ElasticSearch: 2.1.0

    Logstash: 2.1.1

    Kibana: 4.3.0

    Java: openjdk version "1.8.0_65"

    注:由于Logstash的运行依赖于Java环境, 而Logstash 1.5以上版本不低于java 1.7,因此推荐使用最新版本的Java。因为我们只需要Java的运行环境,所以可以只安装JRE,不过这里我依然使用JDK,请自行搜索安装。

    ELK下载:https://www.elastic.co/downloads/

    img

    ElasticSearch

    配置ElasticSearch:

    tar -zxvf elasticsearch-2.1.0.tar.gz
    cd elasticsearch-2.1.0
    

    安装Head插件(Optional):

    ./bin/plugin install mobz/elasticsearch-head
    

    img

    然后编辑ES的配置文件:

    vi config/elasticsearch.yml
    

    修改以下配置项:

    cluster.name=es_cluster
    node.name=node0
    path.data=/tmp/elasticsearch/data
    path.logs=/tmp/elasticsearch/logs
    #当前hostname或IP,我这里是centos2
    network.host=centos2
    network.port=9200
    

    其他的选项保持默认,然后启动ES:

    ./bin/elasticsearch
    

    img

    可以看到,它跟其他的节点的传输端口为9300,接受HTTP请求的端口为9200。

    使用ctrl+C停止。当然,也可以使用后台进程的方式启动ES:

    ./bin/elasticsearch &
    

    然后可以打开页面localhost:9200,将会看到以下内容:

    img

    返回展示了配置的cluster_name和name,以及安装的ES的版本等信息。

    刚刚安装的head插件,它是一个用浏览器跟ES集群交互的插件,可以查看集群状态、集群的doc内容、执行搜索和普通的Rest请求等。现在也可以使用它打开localhost:9200/_plugin/head页面来查看ES集群状态:

    img

    可以看到,现在,ES集群中没有index,也没有type,因此这两条是空的。

    Logstash

    Logstash的功能如下:

    img

    其实它就是一个收集器而已,我们需要为它指定Input和Output(当然Input和Output可以为多个)。由于我们需要把Java代码中Log4j的日志输出到ElasticSearch中,因此这里的Input就是Log4j,而Output就是ElasticSearch。

    配置Logstash:

    tar -zxvf logstash-2.1.1.tar.gz
    cd logstash-2.1.1
    

    编写配置文件(名字和位置可以随意,这里我放在config目录下,取名为log4j_to_es.conf):

    mkdir config
    vi config/log4j_to_es.conf
    

    输入以下内容:

    # For detail structure of this file
    # Set: https://www.elastic.co/guide/en/logstash/current/configuration-file-structure.html
    input {
      # For detail config for log4j as input, 
      # See: https://www.elastic.co/guide/en/logstash/current/plugins-inputs-log4j.html
      log4j {
        mode => "server"
        host => "centos2"
        port => 4567
      }
    }
    filter {
      #Only matched data are send to output.
    }
    output {
      # For detail config for elasticsearch as output, 
      # See: https://www.elastic.co/guide/en/logstash/current/plugins-outputs-elasticsearch.html
      elasticsearch {
        action => "index"          #The operation on ES
        hosts  => "centos2:9200"   #ElasticSearch host, can be array.
        index  => "applog"         #The index to write data to.
      }
    }
    

    logstash命令只有2个参数:

    img

    因此使用agent来启动它(使用-f指定配置文件):

    ./bin/logstash agent -f config/log4j_to_es.conf
    

    img

    到这里,我们已经可以使用Logstash来收集日志并保存到ES中了,下面来看看项目代码。

    Java项目

    照例先看项目结构图:

    img

    pom.xml,很简单,只用到了Log4j库:

    <dependency>
        <groupId>log4j</groupId>
        <artifactId>log4j</artifactId>
        <version>1.2.17</version>
    </dependency>
    

    log4j.properties,将Log4j的日志输出到SocketAppender,因为官网是这么说的:

    img

    log4j.rootLogger=INFO,console
    
    # for package com.demo.elk, log would be sent to socket appender.
    log4j.logger.com.demo.elk=DEBUG, socket
    
    # appender socket
    log4j.appender.socket=org.apache.log4j.net.SocketAppender
    log4j.appender.socket.Port=4567
    log4j.appender.socket.RemoteHost=centos2
    log4j.appender.socket.layout=org.apache.log4j.PatternLayout
    log4j.appender.socket.layout.ConversionPattern=%d [%-5p] [%l] %m%n
    log4j.appender.socket.ReconnectionDelay=10000
    
    # appender console
    log4j.appender.console=org.apache.log4j.ConsoleAppender
    log4j.appender.console.target=System.out
    log4j.appender.console.layout=org.apache.log4j.PatternLayout
    log4j.appender.console.layout.ConversionPattern=%d [%-5p] [%l] %m%n
    

    注意:这里的端口号需要跟Logstash监听的端口号一致,这里是4567。

    Application.java,使用Log4j的LOGGER打印日志即可:

    package com.demo.elk;
    
    import org.apache.log4j.Logger;
    
    public class Application {
        private static final Logger LOGGER = Logger.getLogger(Application.class);
        public static void main(String[] args) throws Exception {
            for (int i = 0; i < 10; i++) {
                LOGGER.error("Info log [" + i + "].");
                Thread.sleep(500);
            }
        }
    }
    

    用Head插件查看ES状态和内容

    运行Application.java,先看看console的输出(当然,这个输出只是为了做验证,不输出到console也可以的):

    img

    再来看看ES的head页面:

    img

    切换到Browser标签:

    img

    单击某一个文档(doc),则会展示该文档的所有信息:

    img

    可以看到,除了基础的message字段是我们的日志内容,Logstash还为我们增加了许多字段。而在https://www.elastic.co/guide/en/logstash/current/plugins-inputs-log4j.html中也明确说明了这一点:

    img

    上面使用了ES的Head插件观察了ES集群的状态和数据,但这只是个简单的用于跟ES交互的页面而已,并不能生成报表或者图表什么的,接下来使用Kibana来执行搜索并生成图表。

    Kibana

    配置Kibana:

    tar -zxvf kibana-4.3.0-linux-x86.tar.gz
    cd kibana-4.3.0-linux-x86
    vi config/kibana.yml
    

    修改以下几项(由于是单机版的,因此host的值也可以使用localhost来代替,这里仅仅作为演示):

    server.port: 5601
    server.host: “centos2”
    elasticsearch.url: http://centos2:9200
    kibana.index: “.kibana”
    

    启动kibana:

    ./bin/kibana
    

    img

    用浏览器打开该地址:

    img

    为了后续使用Kibana,需要配置至少一个Index名字或者Pattern,它用于在分析时确定ES中的Index。这里我输入之前配置的Index名字applog,Kibana会自动加载该Index下doc的field,并自动选择合适的field用于图标中的时间字段:

    img

    点击Create后,可以看到左侧增加了配置的Index名字:

    img

    接下来切换到Discover标签上,注意右上角是查询的时间范围,如果没有查找到数据,那么你就可能需要调整这个时间范围了,这里我选择Today:

    img

    接下来就能看到ES中的数据了:

    img

    执行搜索看看呢:

    img

    点击右边的保存按钮,保存该查询为search_all_logs。接下来去Visualize页面,点击新建一个柱状图(Vertical Bar Chart),然后选择刚刚保存的查询search_all_logs,之后,Kibana将生成类似于下图的柱状图(只有10条日志,而且是在同一时间段的,比较丑,但足可以说明问题了:) ):

    img

    你可以在左边设置图形的各项参数,点击Apply Changes按钮,右边的图形将被更新。同理,其他类型的图形都可以实时更新。

    点击右边的保存,保存此图,命名为search_all_logs_visual。接下来切换到Dashboard页面:

    img

    单击新建按钮,选择刚刚保存的search_all_logs_visual图形,面板上将展示该图:

    img

    如果有较多数据,我们可以根据业务需求和关注点在Dashboard页面添加多个图表:柱形图,折线图,地图,饼图等等。当然,我们可以设置更新频率,让图表自动更新:

    img

    如果设置的时间间隔够短,就很趋近于实时分析了。

    到这里,ELK平台部署和基本的测试已完成。

    docker-compose ELK+Filebeat查看docker及容器的日志

    说明: 计划基于我的高可用环境实操,来写一个elk 日志的博文,以下是人家的内容,仅供参考,等我的高可用环境实操,再来补充这块。

    原文:

    https://www.cnblogs.com/weschen/p/11046906.html

    我目前所在公司开发团队比较小,为集团下面的工厂开发了一套小的系统,跑在一台CentOS服务器上,服务器搭建了docker环境,安装了docker-compose,但在日志处理方面,暂时没有一个好的方法能够收集完全的日志,只能依赖进入至服务器后,以docker logs containerID的方法来进入查看,非常不方便,之前也有关注ELK的技术,但一直在开发系统功能,全力实现,今天得空,重新想起了ELK查看日志的任务。

    项目文件夹,项目代码仓库地址:https://github.com/ChenWes/docker-elk

    img

    其中docker-compose.yml

    [复制代码](javascript:void(0)

    version: '3'
    
    services:
      filebeat:
        hostname: filebeat
        image: weschen/filebeat
        build:
          context: filebeat
          dockerfile: Dockerfile
        volumes:
          # needed to access all docker logs (read only) :
         - "/var/lib/docker/containers:/usr/share/dockerlogs/data:ro"
          # needed to access additional informations about containers
         - "/var/run/docker.sock:/var/run/docker.sock"
        links:
           - logstash
      kibana:
        image: docker.elastic.co/kibana/kibana:6.5.2
        environment:
          - "LOGGING_QUIET=true"
        links:
          - elasticsearch
        ports:
          - 5601:5601
      logstash: 
        hostname: logstash 
        image: weschen/logstash
        build:
          context: logstash
          dockerfile: Dockerfile
        ports:
          - 5044:5044
        environment:
          LOG_LEVEL: error
        links:
          - elasticsearch
      elasticsearch:
        hostname: elasticsearch
        image: weschen/elasticsearch
        build:
          context: elasticsearch
          dockerfile: Dockerfile
        environment:
          - cluster.name=docker-elk-cluster
          - bootstrap.memory_lock=true
          - "ES_JAVA_OPTS=-Xms256m -Xmx256m"
        ulimits:
          memlock:
            soft: -1
            hard: -1
        ports:
          - 9200:9200
    

    [复制代码](javascript:void(0)

    1.Elasticsearch

    文件elasticsearch/Dockerfile

    FROM docker.elastic.co/elasticsearch/elasticsearch:6.5.2
    COPY --chown=elasticsearch:elasticsearch elasticsearch.yml /usr/share/elasticsearch/config/
    
    CMD ["elasticsearch", "-Elogger.level=INFO"]
    

    文件elasticsearch/elasticsearch.yml

    [复制代码](javascript:void(0)

    cluster.name: ${cluster.name}
    network.host: 0.0.0.0
    
    # minimum_master_nodes need to be explicitly set when bound on a public IP
    # set to 1 to allow single node clusters
    # Details: https://github.com/elastic/elasticsearch/pull/17288
    discovery.zen.minimum_master_nodes: 1
    

    [复制代码](javascript:void(0)

    2.Logstash

    文件logstash/Dockerfile

    FROM docker.elastic.co/logstash/logstash:6.5.2
    
    RUN rm -f /usr/share/logstash/pipeline/logstash.conf
    COPY pipeline /usr/share/logstash/pipeline/
    

    文件logstash/pipeline/logstash.conf

    [复制代码](javascript:void(0)

    input { 
        beats {
            port => 5044
            host => "0.0.0.0"
          }
    } 
    
    output { 
        elasticsearch { 
            hosts => elasticsearch
            manage_template => false
            index => "%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}"
        } 
        
        stdout { codec => rubydebug }
    }
    

    [复制代码](javascript:void(0)

    3.Filebeat

    文件filebeat/Dockerfile

    [复制代码](javascript:void(0)

    FROM docker.elastic.co/beats/filebeat:6.5.2
    
    # Copy our custom configuration file
    COPY filebeat.yml /usr/share/filebeat/filebeat.yml
    
    USER root
    # Create a directory to map volume with all docker log files
    RUN mkdir /usr/share/filebeat/dockerlogs
    RUN chown -R root /usr/share/filebeat/
    RUN chmod -R go-w /usr/share/filebeat/
    

    [复制代码](javascript:void(0)

    文件filebeat/filebeat.yml

    [复制代码](javascript:void(0)

    filebeat.inputs:
    - type: docker
      combine_partial: true
      containers:
        path: "/usr/share/dockerlogs/data"
        stream: "stdout"
        ids:
          - "*"
      exclude_files: ['\.gz$']
      ignore_older: 10m
    
    processors:
      # decode the log field (sub JSON document) if JSON encoded, then maps it's fields to elasticsearch fields
    - decode_json_fields:
        fields: ["log", "message"]
        target: ""
        # overwrite existing target elasticsearch fields while decoding json fields    
        overwrite_keys: true
    - add_docker_metadata:
        host: "unix:///var/run/docker.sock"
    
    filebeat.config.modules:
      path: ${path.config}/modules.d/*.yml
      reload.enabled: false
    
    # setup filebeat to send output to logstash
    output.logstash:
      hosts: ["logstash"]
    
    # Write Filebeat own logs only to file to avoid catching them with itself in docker log files
    logging.level: error
    logging.to_files: false
    logging.to_syslog: false
    loggins.metrice.enabled: false
    logging.files:
      path: /var/log/filebeat
      name: filebeat
      keepfiles: 7
      permissions: 0644
    ssl.verification_mode: none
    

    [复制代码](javascript:void(0)

    第一步:首先进入至项目目录,将镜像先处理好

    #处理elasticsearch镜像cd elasticsearch
    docker build -t  weschen/elasticsearch .cd ..
    #处理filebeat镜像cd filebeat
    docker build -t  weschen/filebeat .cd ..
    #处理logstash镜像cd logstash
    docker build -t  weschen/logstash .cd ..
    

    查看镜像如下:

    img

    第二步:使用docker-compose up -d将服务运行起来

    img

    附:如果遇到elasticsearch遇到内存不够的问题,请参考《docker启动elasticsearch容器时出现错误

    在浏览器打开[Host-IP]:9200,能够打开以下界面,说明elasticsearch服务已经起来了,如果没有看到该信息,则需要等待elasticsearch服务启动完成

    img

    再在浏览器打开[Host-IP]:5601,是Kibana日志查看平台

    img

    进入至系统菜单【管理】中的【index-pattern】

    img

    首次使用Kibana需要先创建index-pattern,创建index-pattern操作如下,如果在Discover菜单中创建index-pattern时,会出现以下

    img

    创建了index-pattern后,查看Logs应该可以查看到日志

    img

    首页查看日志

    img

    源码地址:https://github.com/ChenWes/docker-elk

    参考:

    http://baidu.blog.51cto.com/71938/1676798

    http://blog.csdn.net/cnweike/article/details/33736429

    https://my.oschina.net/itblog/blog/547250

    http://baidu.blog.51cto.com/71938/1676798

  • 相关阅读:
    [linux]Linux下的log
    [WDT]内部看门狗和外部看门狗
    [misc]printf/fprintf/sprintf/snprintf函数
    [Linux]read/write和fread/fwrite有什么区别
    移动端图片操作(二)——预览、旋转、合成
    移动端图片操作(一)——上传
    实现tap的多种方式
    Hammer.js分析(四)——recognizer.js
    Hammer.js分析(三)——input.js
    Hammer.js分析(二)——manager.js
  • 原文地址:https://www.cnblogs.com/crazymakercircle/p/15523072.html
Copyright © 2011-2022 走看看