zoukankan      html  css  js  c++  java
  • springboot集成log4j2 + logstash 异步输出日志

    一、  spring boot 集成log4j2

    1、maven引入jar包

        <dependency>
                <groupId>org.springframework.boot</groupId>
                <artifactId>spring-boot-starter-web</artifactId>
                <exclusions><!-- 去掉logback配置 -->
                    <exclusion>
                        <groupId>org.springframework.boot</groupId>
                        <artifactId>spring-boot-starter-logging</artifactId>
                    </exclusion>
                </exclusions>
            </dependency>
            <!--log4j2-->
            <dependency> <!-- 引入log4j2依赖 -->
                <groupId>org.springframework.boot</groupId>
                <artifactId>spring-boot-starter-log4j2</artifactId>
            </dependency>
            <dependency>
                <groupId>biz.paluch.logging</groupId>
                <artifactId>logstash-gelf</artifactId>
                <version>1.12.0</version>
            </dependency>
            <dependency>
                <groupId>com.lmax</groupId>
                <artifactId>disruptor</artifactId>
                <version>3.4.2</version>
            </dependency>

    2、配置文件增加引入log4j2.xml日志配置文件

    #切换log4j2日志配置文件
    logging:
      config: classpath:config/log4j2-dev.xml

    3、log4j2的日志输出配置

    <?xml version="1.0" encoding="UTF-8"?>
    <!--Configuration后面的status,这个用于设置log4j2自身内部的信息输出,可以不设置,当设置成trace时,你会看到log4j2内部各种详细输出-->
    <!--monitorInterval:Log4j能够自动检测修改配置 文件和重新配置本身,设置间隔秒数-->
    <configuration monitorInterval="5">
        <!--日志级别以及优先级排序: OFF > FATAL > ERROR > WARN > INFO > DEBUG > TRACE > ALL -->
    
        <!--变量配置-->
        <Properties>
            <!-- 格式化输出:%date表示日期,%thread表示线程名,%-5level:级别从左显示5个字符宽度 %msg:日志消息,%n是换行符-->
            <!-- %logger{36} 表示 Logger 名字最长36个字符 -->
            <property name="LOG_PATTERN" value="%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] [%p] [%c:%L] -&#45;&#45; %m%n" />
            <Property name="PATTERN">{"host": "%host", "logger": "%logger", "level": "%level", "message": "[%thread] [%c:%L] --- %message"}%n</Property>
            <!-- 定义日志存储的路径,不要配置相对路径 -->
            <property name="FILE_PATH" value="C:/springSecurity/" />
            <property name="FILE_NAME" value="securitylog" />
        </Properties>
    
        <appenders>
    
            <console name="Console" target="SYSTEM_OUT">
                <!--输出日志的格式-->
                <PatternLayout pattern="${LOG_PATTERN}"/>
                <!--控制台只输出level及其以上级别的信息(onMatch),其他的直接拒绝(onMismatch)-->
                <ThresholdFilter level="Debug" onMatch="ACCEPT" onMismatch="DENY"/>
            </console>
    
            <!--文件会打印出所有信息,这个log每次运行程序会自动清空,由append属性决定,适合临时测试用-->
            <File name="Filelog" fileName="${FILE_PATH}/test.log" append="false">
                <PatternLayout pattern="${LOG_PATTERN}"/>
            </File>
    
            <!-- 这个会打印出所有的info及以下级别的信息,每次大小超过size,则这size大小的日志会自动存入按年份-月份建立的文件夹下面并进行压缩,作为存档-->
            <RollingFile name="RollingFileInfo" fileName="${FILE_PATH}/info.log" filePattern="${FILE_PATH}/${FILE_NAME}-INFO-%d{yyyy-MM-dd}_%i.log.gz">
                <!--控制台只输出level及以上级别的信息(onMatch),其他的直接拒绝(onMismatch)-->
                <ThresholdFilter level="info" onMatch="ACCEPT" onMismatch="DENY"/>
                <PatternLayout pattern="${LOG_PATTERN}"/>
                <Policies>
                    <!--interval属性用来指定多久滚动一次,默认是1 hour-->
                    <TimeBasedTriggeringPolicy interval="1"/>
                    <SizeBasedTriggeringPolicy size="10MB"/>
                </Policies>
                <!-- DefaultRolloverStrategy属性如不设置,则默认为最多同一文件夹下7个文件开始覆盖-->
                <DefaultRolloverStrategy max="15"/>
            </RollingFile>
    
            <!-- 这个会打印出所有的warn及以下级别的信息,每次大小超过size,则这size大小的日志会自动存入按年份-月份建立的文件夹下面并进行压缩,作为存档-->
            <RollingFile name="RollingFileWarn" fileName="${FILE_PATH}/warn.log" filePattern="${FILE_PATH}/${FILE_NAME}-WARN-%d{yyyy-MM-dd}_%i.log.gz">
                <!--控制台只输出level及以上级别的信息(onMatch),其他的直接拒绝(onMismatch)-->
                <ThresholdFilter level="warn" onMatch="ACCEPT" onMismatch="DENY"/>
                <PatternLayout pattern="${LOG_PATTERN}"/>
                <Policies>
                    <!--interval属性用来指定多久滚动一次,默认是1 hour-->
                    <TimeBasedTriggeringPolicy interval="1"/>
                    <SizeBasedTriggeringPolicy size="10MB"/>
                </Policies>
                <!-- DefaultRolloverStrategy属性如不设置,则默认为最多同一文件夹下7个文件开始覆盖-->
                <DefaultRolloverStrategy max="15"/>
            </RollingFile>
    
            <!-- 这个会打印出所有的error及以下级别的信息,每次大小超过size,则这size大小的日志会自动存入按年份-月份建立的文件夹下面并进行压缩,作为存档-->
            <RollingFile name="RollingFileError" fileName="${FILE_PATH}/error.log" filePattern="${FILE_PATH}/${FILE_NAME}-ERROR-%d{yyyy-MM-dd}_%i.log.gz">
                <!--控制台只输出level及以上级别的信息(onMatch),其他的直接拒绝(onMismatch)-->
                <ThresholdFilter level="error" onMatch="ACCEPT" onMismatch="DENY"/>
                <PatternLayout pattern="${LOG_PATTERN}"/>
                <Policies>
                    <!--interval属性用来指定多久滚动一次,默认是1 hour-->
                    <TimeBasedTriggeringPolicy interval="1"/>
                    <SizeBasedTriggeringPolicy size="10MB"/>
                </Policies>
                <!-- DefaultRolloverStrategy属性如不设置,则默认为最多同一文件夹下7个文件开始覆盖-->
                <DefaultRolloverStrategy max="15"/>
            </RollingFile>
    
            <!-- 这个会打印出所有的error及以下级别的信息,每次大小超过size,则这size大小的日志会自动存入按年份-月份建立的文件夹下面并进行压缩,作为存档-->
            <RollingFile name="RollingFileDebug" fileName="${FILE_PATH}/debug.log" filePattern="${FILE_PATH}/${FILE_NAME}-ERROR-%d{yyyy-MM-dd}_%i.log.gz">
                <!--控制台只输出level及以上级别的信息(onMatch),其他的直接拒绝(onMismatch)-->
                <ThresholdFilter level="debug" onMatch="ACCEPT" onMismatch="DENY"/>
                <PatternLayout pattern="${LOG_PATTERN}"/>
                <Policies>
                    <!--interval属性用来指定多久滚动一次,默认是1 hour-->
                    <TimeBasedTriggeringPolicy interval="1"/>
                    <SizeBasedTriggeringPolicy size="10MB"/>
                </Policies>
                <!-- DefaultRolloverStrategy属性如不设置,则默认为最多同一文件夹下7个文件开始覆盖-->
                <DefaultRolloverStrategy max="15"/>
            </RollingFile>
            <Socket name="logstash" host="192.168.76.128" port="5602" protocol="TCP">
                <PatternLayout pattern="${PATTERN}" />
                <!--<JsonLayout properties="true"/>-->
            </Socket>
            <!--<Gelf name="logstash-gelf" host="udp:192.168.76.128" port="5602" version="1.1" ignoreExceptions="true">
                <Field name="timestamp" pattern="%d{yyyy-MM-dd HH:mm:ss.SSS}" />
                <Field name="logger" pattern="%logger" />
                <Field name="level" pattern="%level" />
                <Field name="simpleClassName" pattern="%C{1}" />
                <Field name="className" pattern="%C" />
                <Field name="method" pattern="%M" />
                <Field name="line" pattern="%L" />
                <Field name="server" pattern="%host" />
            </Gelf>-->
            <!--<Gelf name="gelf" host="udp:192.168.76.128" port="9600" version="1.1" extractStackTrace="true"
                  filterStackTrace="true" mdcProfiling="true" includeFullMdc="true" maximumMessageSize="8192"
                  originHost="%host{fqdn}" additionalFieldTypes="fieldName1=String,fieldName2=Double,fieldName3=Long">
                <Field name="timestamp" pattern="%d{dd MMM yyyy HH:mm:ss,SSS}" />
                <Field name="level" pattern="%level" />
                <Field name="simpleClassName" pattern="%C{1}" />
                <Field name="className" pattern="%C" />
                <Field name="server" pattern="%host" />
                <Field name="server.fqdn" pattern="%host{fqdn}" />
                <Field name="message" pattern="%message" />
                &lt;!&ndash; This is a static field &ndash;&gt;
                <Field name="fieldName2" literal="fieldValue2" />
    
                &lt;!&ndash; This is a field using MDC &ndash;&gt;
                <Field name="mdcField2" mdc="mdcField2" />
                <DynamicMdcFields regex="mdc.*" />
                <DynamicMdcFields regex="(mdc|MDC)fields" />
            </Gelf>-->
        </appenders>
    
        <!--Logger节点用来单独指定日志的形式,比如要为指定包下的class指定不同的日志级别等。-->
        <!--然后定义loggers,只有定义了logger并引入的appender,appender才会生效-->
        <loggers>
    
            <!--过滤掉spring和mybatis的一些无用的DEBUG信息-->
            <logger name="org.mybatis" level="info" additivity="false">
                <AppenderRef ref="Console"/>
            </logger>
            <!--监控系统信息-->
            <!--若是additivity设为false,则 子Logger 只会在自己的appender里输出,而不会在 父Logger 的appender里输出。-->
            <Logger name="org.springframework" level="info" additivity="false">
                <AppenderRef ref="Console"/>
            </Logger>
    
            <Logger name="com.security.persisence" level="debug" additivity="false">
                <AppenderRef ref="Console"/>
                <appender-ref ref="RollingFileDebug"/>
            </Logger>
    
            <AsyncLogger name="com.security" level="info" includeLocation="false" >
                <!--<appender-ref ref="Console"/>-->
                <appender-ref ref="logstash" />
            </AsyncLogger>
    
            <root level = "info">
                <appender-ref ref="Console"/>
                <!--<appender-ref ref="logstash" />-->
                <!--<appender-ref ref="Filelog"/>-->
                <!--<appender-ref ref="RollingFileInfo"/>
                <appender-ref ref="RollingFileWarn"/>
                <appender-ref ref="RollingFileError"/>
                <appender-ref ref="RollingFileDebug"/>-->
            </root>
        </loggers>
    
    </configuration>

      连接logstash方式有两种

      (1) 一种是Socket连接

      (2)另外一种是gelf连接

           根据网上资料显示,Socket可以解决logstash重启后,应用服务无法继续输出日志到eleastic的接收问题,必须应用服务也需要重启才能继续日志输出,所以基本都推荐使用gelf连接,根据本人的环境搭建以及研究,socket在logstash重启后,继续输出日志,会自动与logstash建立,并没有出现接收问题,所以两种方式目前都可以在单体应用、分布式应用中都放心使用

    3、logstash的conf配置,启动使用

    input { 
        tcp {
         host =>"192.168.76.128"
         port => 5602
          codec => json {
                 charset => "UTF-8"
             }
            }
        stdin{}
    } 
    filter{
       json{
          source => "message"
       }
    }
    output {
         elasticsearch { 
            #action => "index"
                    manage_template => false
            hosts => "192.168.76.128:9200"
            index => "logstash-security-%{+YYYY-MM-dd}"
                    document_type => "logstash"
         }
         stdout { codec=> rubydebug } 
    }

    4、输出日志后,kibana查看日志

  • 相关阅读:
    自定义Bootstrap样式弹出框
    自定义Bootstrap样式弹出框
    Java高级
    Java高级
    Java高级
    Java高级
    与jQuery的感情碰撞——由浅入深学jQuery
    xgqfrms™, xgqfrms® : xgqfrms's offical website of GitHub!
    xgqfrms™, xgqfrms® : xgqfrms's offical website of GitHub!
    xgqfrms™, xgqfrms® : xgqfrms's offical website of GitHub!
  • 原文地址:https://www.cnblogs.com/yuarvin/p/11801073.html
Copyright © 2011-2022 走看看