zoukankan      html  css  js  c++  java
  • Heka配置讲解

    基于Heka,ElasticSearch和Kibana的分布式后端日志架构

    目前主流的后端日志都采用的标准的elk模式(Elasticsearch,Logstash,Kinaba),分别负责日志存储,收集和日志可视化。

    不过介于我们的日志文件多样,分布在各个不同的服务器,各种不同的日志,为了日后方便二次开发定制。所以采用了Mozilla仿照Logstash使用golang开源实现的Heka。

    整体架构图

    采用Heka,ElasticSearch和Kibana后的整体架构如下图所示
    日志系统

    Heka篇

    简介

    Heka对日志的处理流程为输入 分割 解码 过滤 编码 输出。单个Heka服务内部的数据流了通过Heka定义的Message数据模型在各个模块内进行流转。

    heka内置了常用的大多数模块插件,比如

    • 输入插件有Logstreamer Input可以将日志文件作为输入源,

    • 解码插件Nginx Access Log Decoder可以将nginx访问日志解码为标准的键值对数据交给后边的模块插件进行处理。

    得益于输入输出的灵活配置,可以将分散各地的Heka收集到的日志数据加工后统一输出到日志中心的Heka进行统一编码后交给ElasticSearch存储。

    安装

    源码安装的方式较为繁琐这里就不再介绍,有需要可以参考官网文档。http://hekad.readthedocs.io/en/v0.10.0/installing.html

    这里我们的linux发行版用的centos所以使用rpm包的安装方式。

    下载rpm安装包

    1

    wget https://github.com/mozilla-services/heka/releases/download/v0.10.0/heka-0_10_0-linux-amd64.rpm

    使用rpm -i heka-0_10_0-linux-amd64.rpm进行安装。

    安装后执行 hekad -version输出版本号即安装成功。

    使用说明 点击这里 wuguiyunwei.com

  • 相关阅读:
    【转载】25岁毕业,拿一万块月薪
    博客界面终于变成了自己比较满意的感觉
    梯度下降法
    WPF小试牛刀
    关于BOF改进方法的一些introduction
    POJ——1012
    这是个伟大的暑假
    上午的四个coding问题
    FindFirst,FindNext,FindClose学习
    TThread类初探
  • 原文地址:https://www.cnblogs.com/wuguiyunwei/p/7115511.html
Copyright © 2011-2022 走看看