mysql 历史数据表迁移方案

当业务运行一段时间后,会出现有些表数据量很大,可能对系统性能产生不良的影响,常见的如订单表、登录log表等,这些数据很有时效性,比如我们一般很少去查上个月的订单,最多也就是报表统计会涉及到。

在我们的数据库中,用户登录表就是这种类型的表,一般而言,表中的数据是不可逆的,只有插入操作没有删除或者修改操作,表示在过去一段时间内完成的事实业务数据。比如登录表表示一段时间内用户的登录信息,登录一次游戏就会在数据库中记录一条数据。

1、对于备份这类表的策略是:

  1. 第一次备份全表的数据导入到备份表中,也就是全备。
  2. 以后每天只将增加的量自动迁移到备份表中,这里通过自增列的值相比较得到增量,如第一次全备导入备份表,这时自增列的最大值为max(idx),通过这个值到从库中查询,只要大于这个值的所有记录形成增量。
  3. 备份完成后,分批删除主库上的数据。

2、下面是具体操作步骤:

  •    第一次全备和恢复
select * from table into outfile "/data/backup/xxxx.txt";  --导出备份数据
load data infile "/data/backup/ xxxx.txt " into table bak_table;  --在另外服务器备份表中恢复
  •    脚本程序实现:拉取线上服务器上的增量数据,然后导入本服务器,实现增量备份

  1)需要在同一目录下建立三个sql脚本,如a.sql  b.sql  c.sql

   a.sql: 拼接增量备份sql,形成备份语句

use report;
select concat('use report;select * from t_user_session where user_session_idx>',max(user_session_idx),' into outfile "/data/backup/incrementalbackup/t_user_session_ios1.txt";') from t_user_session;

   b.sql:接受a.sql的输出

   c.sql: 负责恢复数据

use report;
load data infile '/data/backup/incrementalbackup/t_user_session_ios1.txt' into table t_user_session_ios1;

  2)loadlog1.sh:通过输入a.sql,生成备份语句到b.sql中。用于在线上服务器执行增量备份数据。

#!/bin/bash
 /data/mysql/bin/mysql -h 127.0.0.1 -uroot -p'******' -N  < /data/backup/scripts/a.sql > /data/backup/scripts/b.sql

  3)loadlog2.sh:连接到线上服务器,删除以前备份文件,并通过b.sql进行数据导出,然后删除本地服务器上上次备份的文件。

1 #!/bin/bash
2 
3 ssh root@1.1.1.1 "/data/backup/scripts/del_bak_file.sh"
4 
5 /data/mysql/bin/mysql -uroot -p'*****' -h'1.1.1.1' < /data/backup/scripts/b.sql
6 
7 rm -f /data/backup/incrementalbackup/*.txt  

  4)loadlog3.sh:将备份服务器上导出的数据文件拷贝到本地服务器

1 #!/bin/bash
2 scp root@10.10.67.114:/data/backup /*.txt /data/backup/

  5)loadlog4.sh:加载数据到本地服务器

1 #!/bin/bash
2 
3 /data/mysql/bin/mysql -h 127.0.0.1 -uroot -p'*******' < /data/backup/scripts/c.sql

  6)loadlogall.sh:用于统一执行loadlog1-4,并输入日志。

 1      #!/bin/bash
 2 
 3      echo '------start-loadlog.sh-----'>> /data/backup/scripts/logs/loadlog.log
 4 
 5      date "+%Y-%m-%d %H:%M:%S" >>  /data/backup/scripts/logs/loadlog.log
 6      /data/backup/scripts/loadlog.sh
 7 
 8      echo '----end--loadlog.sh-----'   >>   /data/backup/scripts/logs/loadlog.log
 9 
10      /data/backup/scripts/loadlog2.sh
11 
12      echo '----end---loadlog2.sh------' >>  /data/backup/scripts/logs/loadlog.log
13 
14      /data/backup/scripts/loadlog3.sh
15 
16      echo '------end-loadlog3.sh------------' >> /data/backup/scripts/logs/loadlog.log
17 
18      /data/backup/scripts/loadlog4.sh
19 
20      echo '-----end-loadlog4.sh----------'  >>  /data/backup/scripts/logs/loadlog.log

  7)将loadlogall.sh加入定时目录,每隔1个小时拉取一次。

      crontab -e

      --编辑文件      分 时 天 月 周 年 命令

到这里备份就完成了,然后可以清理部分的历史数据了,当然了,这里几个loadlog*.sh显得有些繁琐,这里为了一步一步看得更清楚些,完全可以把这些整合到一个shell脚本里。

未完待续。。。

原文地址:https://www.cnblogs.com/mysql-dba/p/4939632.html