zoukankan      html  css  js  c++  java
  • mysql 历史数据表迁移方案

    当业务运行一段时间后,会出现有些表数据量很大,可能对系统性能产生不良的影响,常见的如订单表、登录log表等,这些数据很有时效性,比如我们一般很少去查上个月的订单,最多也就是报表统计会涉及到。

    在我们的数据库中,用户登录表就是这种类型的表,一般而言,表中的数据是不可逆的,只有插入操作没有删除或者修改操作,表示在过去一段时间内完成的事实业务数据。比如登录表表示一段时间内用户的登录信息,登录一次游戏就会在数据库中记录一条数据。

    1、对于备份这类表的策略是:

    1. 第一次备份全表的数据导入到备份表中,也就是全备。
    2. 以后每天只将增加的量自动迁移到备份表中,这里通过自增列的值相比较得到增量,如第一次全备导入备份表,这时自增列的最大值为max(idx),通过这个值到从库中查询,只要大于这个值的所有记录形成增量。
    3. 备份完成后,分批删除主库上的数据。

    2、下面是具体操作步骤:

    •    第一次全备和恢复
    select * from table into outfile "/data/backup/xxxx.txt";  --导出备份数据
    load data infile "/data/backup/ xxxx.txt " into table bak_table;  --在另外服务器备份表中恢复
    •    脚本程序实现:拉取线上服务器上的增量数据,然后导入本服务器,实现增量备份

      1)需要在同一目录下建立三个sql脚本,如a.sql  b.sql  c.sql

       a.sql: 拼接增量备份sql,形成备份语句

    use report;
    select concat('use report;select * from t_user_session where user_session_idx>',max(user_session_idx),' into outfile "/data/backup/incrementalbackup/t_user_session_ios1.txt";') from t_user_session;

       b.sql:接受a.sql的输出

       c.sql: 负责恢复数据

    use report;
    load data infile '/data/backup/incrementalbackup/t_user_session_ios1.txt' into table t_user_session_ios1;

      2)loadlog1.sh:通过输入a.sql,生成备份语句到b.sql中。用于在线上服务器执行增量备份数据。

    #!/bin/bash
     /data/mysql/bin/mysql -h 127.0.0.1 -uroot -p'******' -N  < /data/backup/scripts/a.sql > /data/backup/scripts/b.sql

      3)loadlog2.sh:连接到线上服务器,删除以前备份文件,并通过b.sql进行数据导出,然后删除本地服务器上上次备份的文件。

    1 #!/bin/bash
    2 
    3 ssh root@1.1.1.1 "/data/backup/scripts/del_bak_file.sh"
    4 
    5 /data/mysql/bin/mysql -uroot -p'*****' -h'1.1.1.1' < /data/backup/scripts/b.sql
    6 
    7 rm -f /data/backup/incrementalbackup/*.txt  

      4)loadlog3.sh:将备份服务器上导出的数据文件拷贝到本地服务器

    1 #!/bin/bash
    2 scp root@10.10.67.114:/data/backup /*.txt /data/backup/

      5)loadlog4.sh:加载数据到本地服务器

    1 #!/bin/bash
    2 
    3 /data/mysql/bin/mysql -h 127.0.0.1 -uroot -p'*******' < /data/backup/scripts/c.sql

      6)loadlogall.sh:用于统一执行loadlog1-4,并输入日志。

     1      #!/bin/bash
     2 
     3      echo '------start-loadlog.sh-----'>> /data/backup/scripts/logs/loadlog.log
     4 
     5      date "+%Y-%m-%d %H:%M:%S" >>  /data/backup/scripts/logs/loadlog.log
     6      /data/backup/scripts/loadlog.sh
     7 
     8      echo '----end--loadlog.sh-----'   >>   /data/backup/scripts/logs/loadlog.log
     9 
    10      /data/backup/scripts/loadlog2.sh
    11 
    12      echo '----end---loadlog2.sh------' >>  /data/backup/scripts/logs/loadlog.log
    13 
    14      /data/backup/scripts/loadlog3.sh
    15 
    16      echo '------end-loadlog3.sh------------' >> /data/backup/scripts/logs/loadlog.log
    17 
    18      /data/backup/scripts/loadlog4.sh
    19 
    20      echo '-----end-loadlog4.sh----------'  >>  /data/backup/scripts/logs/loadlog.log

      7)将loadlogall.sh加入定时目录,每隔1个小时拉取一次。

          crontab -e

          --编辑文件      分 时 天 月 周 年 命令

    到这里备份就完成了,然后可以清理部分的历史数据了,当然了,这里几个loadlog*.sh显得有些繁琐,这里为了一步一步看得更清楚些,完全可以把这些整合到一个shell脚本里。

    未完待续。。。

  • 相关阅读:
    11111
    JavaScript基础
    CSS使用
    CSS 基本
    前端之HTML
    Python 迭代器和生成器
    Python day11
    Python 函数
    第十七篇:django基础(二)
    第十六篇:django基础
  • 原文地址:https://www.cnblogs.com/mysql-dba/p/4939632.html
Copyright © 2011-2022 走看看