zoukankan      html  css  js  c++  java
  • ELK部署配置使用记录

    为什么要用ELK:

    一般我们需要进行日志分析场景:直接在日志文件中 grep、awk 就可以获得自己想要的信息。但在规模较大的场景中,此方法效率低下,面临问题包括日志量太大如何归档、文本搜索太慢怎么办、如何多维度查询。需要集中化的日志管理,所有服务器上的日志收集汇总。常见解决思路是建立集中式日志收集系统,将所有节点上的日志统一收集,管理,访问。

    一般大型系统是一个分布式部署的架构,不同的服务模块部署在不同的服务器上,问题出现时,大部分情况需要根据问题暴露的关键信息,定位到具体的服务器和服务模块,构建一套集中式日志系统,可以提高定位问题的效率。

    1.收集-能够采集多种来源的日志数据

    2.传输-能够稳定的把日志数据传输到中央系统

    3.存储-如何存储日志数据

    4.分析-可以支持 UI 分析

    5.警告-能够提供错误报告,监控机制

    ELK提供了一整套解决方案,并且都是开源软件,之间互相配合使用,完美衔接,高效的满足了很多场合的应用。目前主流的一种日志系统。

    ELK简介:

    ELK是三个开源软件的缩写,分别表示:Elasticsearch , Logstash, Kibana , 它们都是开源软件。新增了一个FileBeat,它是一个轻量级的日志收集处理工具(Agent),Filebeat占用资源少,适合于在各个服务器上搜集日志后传输给Logstash,官方也推荐此工具。

    Elasticsearch是个开源分布式搜索引擎,提供搜集、分析、存储数据三大功能。它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。

    Logstash 主要是用来日志的搜集、分析、过滤日志的工具,支持大量的数据获取方式。一般工作方式为c/s架构,client端安装在需要收集日志的主机上,server端负责将收到的各节点日志进行过滤、修改等操作在一并发往elasticsearch上去。

    Kibana 也是一个开源和免费的工具,Kibana可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助汇总、分析和搜索重要数据日志。

    Filebeat隶属于Beats。目前Beats包含四种工具:

    1.Packetbeat(搜集网络流量数据)

    2.Topbeat(搜集系统、进程和文件系统级别的 CPU 和内存使用情况等数据)

    3.Filebeat(搜集文件数据)

    4.Winlogbeat(搜集 Windows 事件日志数据)

    Filebeat:

    https://www.elastic.co/cn/products/beats/filebeat
    https://www.elastic.co/guide/en/beats/filebeat/5.6/index.html

    Logstash:
    https://www.elastic.co/cn/products/logstash
    https://www.elastic.co/guide/en/logstash/5.6/index.html

    Kibana:

    https://www.elastic.co/cn/products/kibana

    https://www.elastic.co/guide/en/kibana/5.5/index.html

    Elasticsearch:
    https://www.elastic.co/cn/products/elasticsearch
    https://www.elastic.co/guide/en/elasticsearch/reference/5.6/index.html

    elasticsearch中文社区:
    https://elasticsearch.cn/

    部署Elk:

    • 安装JDK 必须是1.8或者更高

        

    把离线包传上去 解压出来,然后配置配置环境变量
    
    
    [root@localhost soft]# vim /etc/profile.d/java.sh

     保存退出 重启配置  

    [root@localhost soft]# source /etc/profile.d/java.sh

     测试一下

     

    
    
    • 安装elasticsearch

        

    上传离线安装包 解压 重命名 (也可以不重命名)
    [root@localhost soft]# mv elasticsearch-6.2.4/ elasticsearch
    [root@localhost soft]# ls
    elasticsearch  jdk1.8.0_161
    [root@localhost soft]# 

    修改配置文件(备份一下防止误删)

    [root@localhost soft]# cd /soft/elasticsearch/config/
    [root@localhost config]# ls
    elasticsearch.yml jvm.options log4j2.properties
    [root@localhost config]# cp elasticsearch.yml elasticsearch_bak.yml
    [root@localhost config]#

    cluster.name: my-cluster #集群名称

    node.name: node-1      #节点名称

    path.data: /soft/elasticsearch/data   #数据路径

    path.logs: /soft/elasticsearch/logs   #日志路径

    network.host: 192.168.72.111          #主机地址

    http.port: 9200                       #端口

    discovery.zen.ping.unicast.hosts: ["192.168.72.111:9200"] # 起订新节点通过主机列表发现

    discovery.zen.minimum_master_nodes: 1   #主节点数量 防止集群脑裂问题

    http.cors.enabled: true                          #es跨域配置

    http.cors.allow-origin: "*"                    #es跨域配置

    vim /etc/sysctl.conf

    #末尾追加否则服务会报错。

    vm.max_map_count=655360

    sysctl -p   #使上述配置生效

     

     创建es启动用户

    [root@localhost config]# useradd elasticsearch
    [root@localhost config]# chown -R elasticsearch.elasticsearch /soft/elasticsearch/

     修改文件句柄数

    [root@localhost config]# vim /etc/security/limits.conf

    #添加下面内容:

    *               soft    nofile           102400

    *               hard    nofile           102400

    *               soft    nproc           102400

    *               hard    nproc           102400

    切换用户后台启动

    [root@localhost config]# su - elasticsearch -c 'nohup /soft/elasticsearch/bin/elasticsearch &'

    设置开机启动

    [root@localhost config]# echo "su - elasticsearch -c 'nohup /soft/elasticsearch/bin/elasticsearch &'" >> /etc/rc.local

    查看服务是否启动

    简单测试下

    •  安装Logstash

       

    上传离线安装包 解压 重命名 (也可以不重命名)
    
    增加配置新的测试配置文件 先配置成调试模式测试

    [root@localhost config]# vim /soft/logstash/config/test.conf

     启动logstash

    [root@localhost config]# /soft/logstash/bin/logstash -f /soft/logstash/config/test.conf 

    • 安装filebeat

    上传离线安装包 解压 重命名 (也可以不重命名)
    
    修改配置文件

    [root@localhost filebeat]# vim filebeat.yml

     
     enabled: True   //启用该配置

    paths:
    - /soft/log/*.log    //检测的文件 可以是一个列表

    output.logstash:
    # The Logstash hosts
    hosts: ["192.168.72.111:5044"]    //logstash 地址 把信息推送到logstash

     启动filebeat

    [root@localhost filebeat]# /soft/filebeat/filebeat -c /soft/filebeat/filebeat.yml -e

    测试一下 在/soft/log 下面新建log文件  并写入内容

    [root@localhost ~]# echo 'test' >> /soft/log/1.log

    查看logstash 控制台输出

       测试完成,修改logstash 配置elasticsearch 数据库  新建一个配置文件

       [root@localhost config]# vim es.conf 

    •  安装kibana

     

    上传离线安装包 解压 重命名 (也可以不重命名)
    
    修改配置文件
    
    [root@localhost config]# vim kibana.yml 

      server.port: 5601

     server.host: "192.168.72.111"

       elasticsearch.url: "http://192.168.72.111:9200"

     启动kibana

      [root@localhost kibana]# bin/kibana

     
    •  logstash的filter 功能

       

        Logstash事件处理有三个阶段:inputs → filters → outputs。是一个接收,处理,转发日志的工具。支持系统日志,webserver日志,错误日志,应用日志,总之包括所有可以抛出来的日志类型。

         

         

        修改配置文件

         

    input {
       
        beats {
        host=>"172.16.101.10"
            port => "5044"
        }
    }
    filter {
      grok {
        patterns_dir=>"/soft/logstash/patterns"
        match => {
             "message" =>  "(?<date>d{4}-d{2}-d{2}sd{2}:d{2}:d{2},d{3})s-s(%{IP:client})s-s(?<level>[S]*)"
            }
      }
       geoip{
          source=>"client"
        }
        mutate{
            remove_field => "host"
        }
    
    }
    
    output {
        elasticsearch {
            hosts => ["172.16.101.10:9200"]
        }
    }

     grok 表达式 在线调试 

     http://grokdebug.herokuapp.com/ 

     

  • 相关阅读:
    WebRTC的一个例子
    Gerrit增加SSL证书
    Ruby on Rails 创建https应用
    使用Ruby来实现批量更新AD中字段
    pg gem 安装(postgresql94)
    Spark源码剖析(一):如何将spark源码导入到IDEA中
    Scala入门系列(十三):类型参数
    Scala入门系列(十二):隐式转换
    Scala 安装 Exception in thread "main" java.lang.VerifyError: Uninitialized object exists on backward branch 96
    Scala入门系列(十一):模式匹配
  • 原文地址:https://www.cnblogs.com/zhaops/p/11168840.html
Copyright © 2011-2022 走看看