zoukankan      html  css  js  c++  java
  • Nginx-Tomcat 等运维常用服务的日志分割-logrotate

    文章 GitHub 地址 :运维常用应用的日志分割

    一 、Nginx-Tomcat 等常用服务日志分析

    在实际生产中,我们知道哪些应用的日志会自动分割吗?哪些应用日志需要我们通过服务进行定时分割?接下来我们来看看。

    对比的标准

    • 是否会自动切割 ?
    • 重启是否会自动分割 ?

    Nginx 日志

    日志名称 日志描述 是否自动切割 是否需要定时切割
    access.log Nginx 访问日志
    error.log Nginx 错误日志

    如果需要单独配置网站日志的话需要在 server 模块添加access_log logs/djx.log ;

    Tomcat日志

    日志名称 日志描述 是否自动切割 是否需要定时切割
    catalina.out Tomcat 运行时日志和输出到控制台日志(应用)
    catalina.2019-04-28.log Tomcat本身运行的日志,主要是启动和暂停的。
    localhost_access_log.2019-04-28.txt 访问 Tomcat 的日志,请求时间和资源,状态码都有记录
    localhost.2019-04-28.log 应用初始化(listener, filter, servlet)未处理的异常最后被 Tomcat 捕获而输出的日志
    host-manager.2019-04-28.log 放 Tomcat 的自带的 Host Manager项目的日志信息的
    manager.2019-04-28.log Tomcat 自带 Manager项目专有的日志文件

    Tomcat 的日志比较特别和有意思,我也是认真看了看才发现其中的奥秘。

    画重点了

    Tomcat 的 catalina.out 日志是 不会自动切割的,所以我们需要对它进行定时切割,重启 Tomcat 也是不会自动切割的。

    其它的日志 Tomcat 是会进行自动切割的,但是会遵循这样的一个规则:日志隔天切割,有日志才切割,重启会切割:

    • 日志隔天切割 :含义是 日志在24.00分才会进行切割,如果 00:00:10 产生了当天的第一条日志,那么就进行切割。
    • 有日志才切割 :含义是 如果满足了隔天的要求,但是第二天一直没有产生日志,那么就会直到第二天第一条日志产生时才进行切割。
    • 重启切割 : 含义是 如果上面的条件都不满足,就是到了第二天,但是一条日志一直都没有产生,那么在重启Tomcat 时是会进行切割的。

    上面内容有点绕,我们举几个示例理解下。

    示例1:

    	Tomcat 在 2019 年 4 月28号15.30分启动的,有日志文件 catalina.2019-04-28.log 等。2019 年 4月29号的第一条日志在 2019 年 4月29号9.30分。那么日志切割在什么时候?
    
    ​		日志切割是在  2019 年 4月29号9.30分。
    

    示例2:

    		Tomcat 在 2019 年 4 月28号10.30分启动的,有日志文件 catalina.2019-04-28.log 等。在 2019 年 4月29号3.30分重启了 Tomcat  ,但是在重启前,Tomcat 在2019 年 4月29号3.30分当天是没有产生日志的,但在  2019 年 4月29号 3.50 产生了日志。问在什么时候切割了日志?
    
    ​		Tomcat   重启时就进行了切割。
    

    MongoDB 日志

    MongoDB 的日志我们平时是关注的比较少,但是我们这边还是做下记录。

    MongoDB 的日志是否切割取决于 MongoDB 的配置参数。

    logRotate= rename/reopen
        #3.0.0版中的新功能。可以取值为 rename 或 reopen:
            rename 重命名日志文件。每次重启都会重命名日志文件。
            reopen 按照典型的 Linux/Unix 日志循环行为关闭并重新打开日志文件。使用 reopen 使用的             Linux/Unix logrotate的工具时,以避免日志的丢失。
            如果指定 reopen,则还必须使用 logappend
    logappend= true # 当 MongoDB 实例重新启动时,将新的日志内容添加到现有日志文件的末尾。如果没有此选项,MongoDB 将备份现有日志并创建新文件。
    

    但是,MongoDB 的日志默认是不会进行切割的(如果不重启的话)。

    MongoDB 日志切割 见文章 :MongoDB 日志切割三种方式

    Redis 日志

    Redis 日志默认也是不切割的, 重启也不切割。 Redis 日志在实际环境中我们也是建议进行切割的,切割频率可以降低。我看到有的 Redis 日志达到 1G,运行了2年,那么我们进行查找日志就比较不方便的,所以建议 Redis 的日志也进行切割。

    二 、日志切割服务 logrotate

    我们通常会去寻找对应的日志切割服务,但是我们不知道系统默认已经默认带了一个日志的切割服务 logrotate。像我们系统的日志 /var/log/cron/var/log/maillog/var/log/messages等等这些都是通过 logrotate 来进行切割的,我们可以在文件 /etc/logrotate.d/syslog 看到具体的配置。logrotate 可以每天或者每个月按周期对日志进行自动切割和压缩,以及通过邮件发送。logrotate 的自动切割是 通过 crond 来运行任务的。

    logrotate 官方链接

    logrotate 命令以及选项

    logrotate [OPTION...] <configfile>
     -d, --debug  # 仅仅是测试,并不做任何东西。在测试配置文件是否正确的时候可以使用。
     -f, --force  # 指定配置文件
     -m, --mail=command   # 指定发送邮件的命令,替代 /bin/mail
     -s, --state=statefile # 指定状态文件的路径 ,默认路径是 /var/lib/logrotate.status 。
     -v, --verbose  # 显示 logrotate 分割信息
     -l, --log=STRING # 指定日志文件的路径
     --version # 显示版本信息
    

    logrotate 配置文件路径

    logrotate 配置文件的位置 位于/etc/logrotate.conf

    logrotate 用户配置文件位于 /etc/logrotate.d/

    logrotate 的执行状态文件/var/lib/logrotate.status

    logrotate 配置文件的参数:

    su djx  djx  # 指定切割用户和用户组,默认为root。一定要加 用户组 ,否则会报错。
    compress # 是否通过gzip压缩转储以后的日志文件,如xxx.log-20131216.gz ;如果不需要压缩,注释掉就行
    compresscmd # 指定压缩的命令,默认 gzip
    uncompresscmd # 用于解压缩的日志文件的命令 默认是 gunzip
    compressext  # 启用压缩的扩展名,默认 gzip 的扩展名就是 .gz。
    copy  # 制作日志文件的副本,与create选项互斥。
    copytruncate # 用于还在打开中的日志文件,把当前日志备份并截断;是先拷贝再清空的方式,拷贝和清空之间有一个时间差,可能会丢失部分日志数据。与create选项互斥。
    create mode owner group # 在切割后,创建新的日志文件,并指定数据的权限和所有者和所属组。
    dateext    # 这个参数很重要!就是切割后的日志文件以当前日期YYYYMMDD为格式结尾,如xxx.log-20131216这样,如果注释掉,切割出来是按数字递增,即前面说的 xxx.log-1这种格式
    dateformat format_string # 指定日志文件后缀日期格式
    ifempty # 表示即使是空文件也要选择,该选项是默认值。与 notifempty 相反
    notifempty  # 当日志文件为空时,不进行轮转,与 ifempty 相反
    mailfirst  #  当配置了邮件地址,指定发送最新的文件
    maillast  # 当配置了邮件地址,指定发送最旧的文件,(默认设置)
    rotate count  # 日志保留的次数, 如果该参数不写的话,默认就是删除之前所有的文件日志。比如切割了200次,那么只保留最新的180次日志,并删除旧的20次日志。如果配置文件指定的是 daily,那每天切割一次日志,就意味着保留180天日志。
    maxage count # 删除早于 count 天的日志,如果配置了 mail 则通过邮件发送。
    daily   # 每天 切割
    weekly  # 每周运行一次,通常在每周的第一天。
    monthly      # 每月运行一次切割,通常会在该月的第一天。
    yearly   # 如果当前年份与上一次年份不相同,就会进行切割
    nocompress   # 不进行压缩。 
    size size  # 日志文件达到多大就切割
    olddir dir  # 切割后存放的目录
    start count  #  当没有指定日期后缀,将数字作为后缀内容,默认是从 1 开始 。可以指定其他数字开始。
    missingok   # 如果日志丢失,不报错继续滚动下一个日志
    mail  112@163.com # 该参数与 rotate 是有关联的,当超过 rotate 指定次数,文件不是删除,而是通过邮件发送到指定位置。
    prerotate       # 在logrotate转储之前需要执行的指令
    postrotate      # 在logrotate转储之后需要执行的指令
    
    ###  3.85 版本增加每个小时切割
    hourly # 每个小时切割
    

    示例配置

    #  文件路径,可以使用通配符。
    /opt/tomcat/logs/catalina.out{
    compress 
    compressext .gz
    copytruncate
    dateext
    notifempty
    maillast
    rotate 180 
    daily
    size 10M
    olddir /opt/logs/tomcat
    missingok
    mail 888888@qq.com # 如果我们本地没有配置好发送邮件配置的话是发送不了邮件的。
    }
    

    常用命令

    logrotate -d -f /etc/logrotate.d/tomcat  # 测试配置文件是否配置正常
    logrotate  -f /etc/logrotate.d/tomcat  # 立刻切割文件,可以将该命令放到定时任务中实现定时切割
    

    注意事项:

    • 当我们设置好日志按日进行切割的时候,具体的执行时间是在什么时候呢?我们不要以为是会在 24.00 的时候进行切割的,它进行切割的时间是随机的。这个随机值取决于 crond 服务的,最终会取决于文件 /etc/anacrontab

      [root@localhost ~]# cat /etc/anacrontab
      # /etc/anacrontab: configuration file for anacron
      
      # See anacron(8) and anacrontab(5) for details.
      
      SHELL=/bin/sh
      PATH=/sbin:/bin:/usr/sbin:/usr/bin
      MAILTO=root
      # the maximal random delay added to the base delay of the jobs # 延迟时间
      RANDOM_DELAY=45
      # the jobs will be started during the following hours only    执行时间段
      START_HOURS_RANGE=3-22
      
      #period in days   delay in minutes   job-identifier   command
      1	5	cron.daily		nice run-parts /etc/cron.daily
      7	25	cron.weekly		nice run-parts /etc/cron.weekly
      @monthly 45	cron.monthly		nice run-parts /etc/cron.monthly
      
      

      我们可以发现 定时任务是会在 3-22点的5分-45分里面进行日志切割。

    • 生产环境中该如何定时日志分割

      我们在实际的生产环境中,我们通常会进行按日进行日志分割,也就是我们希望在 24.00 进行前一天的日志分割,我们可以通过 crond 服务进行定时切割 (logrotate -f /etc/logrotate.d/tomcat ), 但是我们通常在很多应用中会有定时任务在 24.00进行执行,那个时间段也就会产生大量的日志,如果我们在此时切割,那么我们可能会导致比较多的重要的日志丢失(并且此时任务多,资源消耗多,切割也慢),那么我们建议先咨询开发,24.00 是否有大量定时任务,我们可以在 24.00之前几分钟或者之后几分钟 进行切割。这样就避免大量的日志丢失。

    三、日志切割示例

    Nginx 切一切

    示例:Nginx 日志保存在 /opt/nginx/logs/,包含日志 access.logerror.log

    /opt/nginx/logs/* {
    compress 
    compressext .gz
    copytruncate
    dateext
    notifempty
    maillast
    rotate 180 
    daily
    size 10M
    olddir /opt/logs/nginx
    missingok
    mail 888888@qq.com # 如果我们本地没有配置好发送邮件配置的话是发送不了邮件的。
    }
    

    Tomcat 切一切

    示例:Tomcat 日志保存在 /opt/tomcat/logs/,包含日志 catalina.out,其他日志会自动切割。

    /opt/tomcat/logs/catalina.out{
    compress 
    compressext .gz
    copytruncate
    dateext
    notifempty
    maillast
    rotate 180 
    daily
    size 10M
    olddir /opt/logs/tomcat
    missingok
    mail 888888@qq.com # 如果我们本地没有配置好发送邮件配置的话是发送不了邮件的。
    }
    
  • 相关阅读:
    三元表达式、递归、匿名函数
    迭代器、生成器、面向对象
    LeetCode35-搜索插入位置(二分查找)
    自动化测试框架搭建3-TestNG
    LeetCode28-实现strStr()(水题)
    前端页面与Nodejs使用websocket通信
    LeetCode14-最长公共前缀(水题)
    LeetCode13-罗马数字转整数(水题)
    AngularJS学习3-服务(service)/http服务/跨域
    九度OJ 1001:A+B for Matrices
  • 原文地址:https://www.cnblogs.com/operationhome/p/10820258.html
Copyright © 2011-2022 走看看