如何在生产环境mysql删除亿万级数据解并且不影响数据库主从延迟的解决方案 您所在的位置:网站首页 清理数据的方法 如何在生产环境mysql删除亿万级数据解并且不影响数据库主从延迟的解决方案

如何在生产环境mysql删除亿万级数据解并且不影响数据库主从延迟的解决方案

2024-07-16 15:07| 来源: 网络整理| 查看: 265

目录

前言

为什么在生产上主从环境情况下mySQL特别容易卡死

不要去怪设计不要去怪开发我们devops靠自己

场景一、当要被删除的数据量远大于保留的数据量的场景下的做法

操作涉及数据量及环境

烂机器环境下的执行情况

好机器环境下的执行情况

场景二、当要被删除的数据量远小于保留的数据量的场景下的做法

分场景1、被删除的数据很小小到只会引起10分钟内的主从延迟-不建议

操作涉及数据量及环境

烂机器环境下的执行情况

好机器环境下的执行情况

分场景2、被删除的数据不小,但是如果直接delete一定会引起15分钟以上的主从延迟

烂机器环境下的执行情况

好机器环境下的执行情况

最终对于生产mysql的日志清理策略的best practice

附录

自动监控mysql主从延迟报警shell脚本-behind_master.sh

使用CentOS的crontab设置监控脚本每5s运行一次写法

自动发送告警信息到企业微信接口(aldi-cupidmq)的python脚本

企业微信收到主从延迟后的展示效果

前言

本方案适合:无关业务的“日志数据”,但往往日志数据是最最占用我们的整体系统性能的,因此对这样的日志,我们是需要进行定期清理的。

如果你要说:业务数据也需要那么我告诉你,业务数据肯定用的是本方案中的场景2中的分场景2模式(只有这一条路),但是业务数据会暴发到你连本方案都无法覆盖的那一天的(很快的,如我上一家公司:几千万的会员生成业务流水),那么当本方案都失效时怎么办?

答案就是:垂直折分,hash一致算法,sharding sphere就要用上了,对于这一块涉及到的面太庞大了因此我需要写一段时间,当我写完也会分享给到大家。

开始进入正文:

如果你是单机,如果你是自己在家玩。你的数据库里有亿级数据,你来一条:

delete from user_behavior_logs;

然后你慢慢等个几小时,等到你的mysql暴了、硬盘被烧了都没事。

如果你在公司的生产环境,特别是在具有主从复制、1主多从甚至多主多从的环境下,你来一条delete命令,你知道会发生什么事吗?

为什么在生产上主从环境情况下mySQL特别容易卡死

它的原理其实是:mysql上的delete语句首先会同步到各个从库上,delete语句会产生redo日志也会同步在各个从库上,然后是mysql本身数据的binlog也在同步。三条操作*总mysql库量*你删除的数据量产生的:

网络ioCPU消耗磁盘读写等等等其它

导致了上面的“主从延迟”这样的一个问题。

当发生主从延迟时其实是不用怕的,当生产环境读写操作频繁,总会发生一定概率的主从延迟。偶尔在大促季,一天发生个1-2次并且只要在主从延迟发生时,从库可以在5-10分钟内追平主库就不构成任何影响。

但是,如果发生了主从延迟,这个从延尺不断的在加大时间,超过了20分钟,30分钟,往40、60分钟走时,此时的整个db群就是:读业务全部受影响,因为从还没执行完自己的任务还要去追主,但是主上不断的在写进大量的数据。一般为了让从能够追上主,你就必须“锁主库”。

我们都知道,在生产环境下是不能锁主库的,一锁,所有的订单或者相关的“写操作”都没法提交了。

那么就有人说了:让从慢慢追主吧。

但是,些时你的整体网站是读写分离的,从库追不平主库,整体的读业务又受影响。

这个痛苦啊,此时就会发生著名的“主从延迟土拨鼠之日”,这是一个悖论,即:

眼看着数据库里的日志越来越多、占用的磁盘越来越大、影响了日常的正常报表、运维工作,再不删,整体业务要严重受到影响。但是呢,当你要去删,就又出现了严重的主从延迟,一样影响业务。咽不下去也吐不出,活活被憋死!

不要去怪设计不要去怪开发我们devops靠自己

“一千个观众眼中有一千个哈姆雷特”--《杀死比尔说的-哦,不是,是莎士比亚》

可是,我们在生产db上删除记录并且又能不影响主从同步的话就只有“一种”方法,我们在说任何方法前先来一个感性的认识,即我们先用“人类”可以懂的语言来描述一下这件事到底该怎么做。它其实可以分为两个场景来做,每个场景有不同的做法:

场景一、当要被删除的数据量远大于保留的数据量的场景下的做法

场景二、当要被删除的数据量远小于保留的数据量的场景下的做法

下面,就让我们来展开这两个场景吧。

场景一、当要被删除的数据量远大于保留的数据量的场景下的做法

假设我们实际要执行的是下面这样的一条sql:

delete from user_behavior_logs where created_datetime between '2016-08-10 17:20:00' and '2019-12-31 17:20:00';

这涉及到在生产的主库上:

删除:1700万条记录

实际需要保留的数据:30万条,条件: between '2020-01-01 17:20:00' and '2020-08-10 17:20:00',30万条数据。

那么我们的做法为:

1) 照着要被删除的table名建立一个完全一模一样名字带tmp_前缀的table名

2)选取要保留的数据 into tmp_table

3)rename table 原来的table名 to deleted_原来的table名

4)rename table tmp_table to 原来的table名

5)drop table deleted_原来的table名

它化成具体的操作就是以下这么几条sql(create table语句省略,因为这个太简单了)

insert into tmp_user_behavior_logs ( ak,gu,ln,st,os, ss,ip,bruser_behavior_logs,lan,fv,ifj,ifc,brs,cp,pn,pl,chn,sv,ev,et,pt,prn,created_datetime ) select ak,gu,ln,st,os, ss,ip,bruser_behavior_logs,lan,fv,ifj,ifc,brs,cp,pn,pl,chn,sv,ev,et,pt,prn,now() from user_behavior_logs where created_datetime between '2020-01-01 17:20:00' and '2020-08-10 17:20:00'; rename table user_behavior_logs to deleted_user_behavior_logs; rename table tmp_user_behavior_logs to user_behavior_logs; drop table deleted_user_behavior_logs; 操作涉及数据量及环境 烂机器环境下的执行情况

以上的操作位于:base 1000万条记录,同时使用压力测试工具不断的往数据库中以每5秒进5000条数据的速度插入新数据,master slaver主从情况下,在4c cpu, 8gb ram,非ssd磁盘执行情况:

对于insert into ...select from...语句涉及到30万数据量的情况下,执行时间为:16s,执行期间有报主从同步,主从同步一开始值有点高为70s,这个报警持续了5分钟左右即消失;

对于rename与drop语句执行只用了1s,执行过程无任何主从同步报警;

结论

就算主从报警,为完全可接受范围内。

好机器环境下的执行情况

以上的操作位于:base 1000万条记录,同时使用压力测试工具不断的往数据库中以每5秒进5000条数据的速度插入新数据,master slaver主从情况下,在64c cpu, 256gb ram,ssd磁盘执行情况:

对于insert into ...select from...语句涉及到30万数据量的情况下,执行时间为:1.3s,执行期间,有报主从同步,主从同步一开始值为5s,这个报警持续了15s就消失了;

对于rename与drop语句执行只用了1s,执行过程无任何主从同步报警;

结论

就算主从报警也可以忽略不计。

场景二、当要被删除的数据量远小于保留的数据量的场景下的做法 分场景1、被删除的数据很小小到只会引起10分钟内的主从延迟-不建议

第1步:确定要被删除的id范围;

第2步:使用存储过程,分成小批量删除,每次删除的量不要超过(delete+where条件)万条。删除后停一下,再删下一批,全程最好有监控报警随时看着

操作涉及数据量及环境 烂机器环境下的执行情况

以上的操作位于:base 2.1亿条记录,总共:460gb,同时使用压力测试工具不断的往数据库中以每5秒进5000条数据的速度插入新数据,master slaver主从情况下,在4c cpu, 8gb ram,非ssd磁盘执行情况:

对于delete from user_behavior_logs where id between 1  and 5000; 每隔30秒我做一次这样的delete操作。

实际操作时间为:3.7s,主从延迟报警持续了:59s即告结束。

结论

就算主从报警,为完全可接受范围内。

好机器环境下的执行情况

以上的操作位于:base 1000万条记录,每5秒进5000条数据,master slaver主从情况下,在64c cpu, 256gb ram,ssd磁盘执行情况:

对于delete from user_behavior_logs where id between 1  and 5000; 每隔30秒我做一次这样的delete操作。

实际操作时间为:1s,主从延迟报警持续了:8s即告结束。

结论

就算主从报警,为完全可接受范围内。每次删除需要少数据量,频率不能太高,每次删完当中需要有一个30-60秒的间隔以让从尽量追上主库。

 

分场景2、被删除的数据不小,但是如果直接delete一定会引起15分钟以上的主从延迟

假设我们实际要执行的是下面这样的一条sql:

delete from user_behavior_logs where created_datetime between '2020-04-07 09:00:00' and '2020-08-07 14:00:00';

这涉及到在生产的主库上:

删除:170万条记录

实际需要保留的数据:9000w条记录,条件为created_datetime between '2020-04-07 09:00:00' and '2020-08-07 14:00:00';

那么我们的做法为:

第一步:mysqldump成一个文件;

第二步:把dump出去的文件导入到一个新的表中去

第三步:使用分场景2中的rename手法来

注意:这个手法只有在非业务时间段即一般在零晨去做这个事情,mysqldump回新表时,会造成不小的主从延迟,来看一下本人的实际操作情况。

烂机器环境下的执行情况

以上的操作位于:base 1亿条记录,总共:140gb,同时使用压力测试工具不断的往数据库中以每5秒进5000条数据的速度插入新数据,master slaver主从情况下,在4c cpu, 8gb ram,非ssd磁盘执行情况:

对于delete from user_behavior_logs where created_datetime between '2020-04-07 09:00:00' and '2020-08-07 14:00:00'; 要删除的数据多达:170w条,需要保留的有9900w条。

用mysqldump导出和恢复9900w条记录总计用了:6小时,造成了严重的主从同步,最后不得不锁主库,再用mysqldump追平从库,最后造成整个操作没法完成。

结论

该操作确实很耗时,在一般机器上很难模拟,也验证了,这种操作很耗资源。

好机器环境下的执行情况

以上的操作位于:base 1亿条记录,总共:140gb,同时使用压力测试工具不断的往数据库中以每5秒进5000条数据的速度插入新数据,master slaver主从情况下,在64c cpu, 256gb ram,ssd磁盘执行情况:

对于delete from user_behavior_logs where created_datetime between '2020-04-07 09:00:00' and '2020-08-07 14:00:00'; 要删除的数据多达:170w条,需要保留的有9000w条。

用mysqldump导出和恢复9900w条记录总计用了:3小时,从库每3分钟报一次主从同步,连续了3小时直到mysqldump把9900w条记录导入了新表才告终目。而后续的rename表名和drop都是秒级,期间无任务报警。

结论

这种手法,只有在非营业时间去做,并且这点时间是完全可以忍受的,但是这种需求只应该每半年或者季度发生一次。

最终对于生产mysql的日志清理策略的best practice 策略一、如果需要删除的数据很多,多到比如说需要删除相当于原表数据内的50%,并且这个总量超过10个gb的话,都必须在非业务时间,有足够的空余时间(8小时内)才能去做这样的操作,操作前必须建立1v1数据库验证这个手法可以在8小时内完成,然后才可以去正式生产上做操作。并且这种操作视业务量,一般6个月或者最频繁3个月一次足以了;策略二、如果需要删除的数据远大于需要保留的数据,比如说需要保留的数据不过百万来条,10个gb以内,完全可以使用场景一中的“5步曲”去做这个操作;场景2中的分场景1,不建议原因有两点:1)你根本无法控制自动脚本的跑delete语句的准确率,特别是生产环境,你能确保定时触发的delete语句每次都删除的数据量是你规定的吗?2)如果在高并发环境下,为了确保被自动触发的delete语句永远是安全的你就必须去控制这个delete语句的数据范围,一般会控制在很少值,那么就是你删除的速度远远跟不上进入的数据,你的分小段delete清理日志手段或者在一开始业务量小的情况下有一定的效果,但是如果业务一旦爆增这种“涓涓溪流”的行为是毫无任何意义的;无论采取的是策略一还是策略二,绝对不可以设成“自动脚本”,必须全程人为干涉和监控。就算用的是策略二、半年这么幸苦一晚上也是值得的; 附录 自动监控mysql主从延迟报警shell脚本-behind_master.sh #!/bin/bash #desc:脚本 #通过从库监控Seconds_Behind_Master的值监控延迟情况。 #该值为null或着超过告警阈值会报错. #本脚还通过mysql命令执行情况判定mysql服务可用状态。 #author:hahaxiao_mk #date:2018/04/27 #source ~/.bash_profile #source ~/.bashrc #----Seconds_Behind_Master的值 v_sbm='NULL' #----检测域值,单位s v_threshold=1 #----机器标示 v_machine_mark=ymkmysql MYSQL_HOME=/usr/local/mysql #-----发送告警信息函数 function f_send_msg() { echo "准备发送主从迟告警:${1} ${2}" >> /home/appadmin/behind_master.log python /home/appadmin/send_alert_msg.py ${1}$2 101 1 #调用alert告警${v_java_home_bin}/java -jar /opt/config/inf/alarm.jar 1 $1 $2 } #-----判定mysql服务状态 starttime=$(date +%Y-%m-%d\ %H:%M:%S) v_mysql_status=`mysql -uroot -phaha -P3306 -h10.0.0.1 -e "show slave status\G"|grep Seconds_Behind_Master` echo "开发库10.0.0.1于 ${starttime} -> 主从延迟目前为:${v_mysql_status}" >> /home/appadmin/behind_master.log if [ $? -eq 1 ] then v_err_msg="mysql is not available! " # f_send_msg ${v_mobile} ${v_err_msg} echo ${v_err_msg} f_send_msg ${v_err_msg} exit fi #------判定延迟情况 v_sbm=`echo ${v_mysql_status}|awk -F ":" '{print $2}'` if [ "${v_sbm}" = " NULL" ] then v_err_msg="开发库10.0.0.1于 ${starttime} -> 发生主从延迟为: ${v_sbm}!" # f_send_msg ${v_mobile} ${v_err_msg} #echo ${v_err_msg} f_send_msg ${v_err_msg} elif [ ${v_sbm} -gt ${v_threshold} ] then v_err_msg="开发库10.0.0.1发生主从延迟${v_sbm}s!" echo ${v_err_msg} >> /home/appadmin/behind_master.log #f_send_msg ${v_mobile} ${v_err_msg} #echo ${v_err_msg} f_send_msg ${v_err_msg} fi 使用CentOS的crontab设置监控脚本每5s运行一次写法 crontab -e

然后把下面这一陀复制进去吧(crontab的最小条件为分钟,因此要做成秒必须化解成以下的语句,这是一个实用技巧

* * * * * sh /home/appadmin/behind_master.sh * * * * * sleep 5; sh /home/appadmin/behind_master.sh * * * * * sleep 10; sh /home/appadmin/behind_master.sh * * * * * sleep 15; sh /home/appadmin/behind_master.sh * * * * * sleep 20; sh /home/appadmin/behind_master.sh * * * * * sleep 25; sh /home/appadmin/behind_master.sh * * * * * sleep 30; sh /home/appadmin/behind_master.sh * * * * * sleep 35; sh /home/appadmin/behind_master.sh * * * * * sleep 40; sh /home/appadmin/behind_master.sh * * * * * sleep 45; sh /home/appadmin/behind_master.sh * * * * * sleep 50; sh /home/appadmin/behind_master.sh 自动发送告警信息到企业微信接口(aldi-cupidmq)的python脚本 #!/usr/bin/python import re import requests import time import json import sys url='http://localhost:9081/alertservice/sendMsg' if (len(sys.argv)>1): inputedmsg=sys.argv[1] msgtype=sys.argv[2] modelId=sys.argv[3] print('input message->'+inputedmsg+' input msgtype->'+msgtype+' modelId->'+modelId) currentTime=time.strftime('%Y/%m/%d %H:%M:%S',time.localtime(time.time())) print 'current time is ', currentTime if(msgtype=='101'): wechatmsg='Issue happened on ' +currentTime +':\n'+ inputedmsg wechatcontent={"modelId": modelId, "content": wechatmsg} wechatheaders = {"content-type": "application/json; charset=UTF-8", "type": "101"} req = requests.post(url, data=json.dumps(wechatcontent),headers=wechatheaders) print(req.text) elif(msgtype=='102'): print('send mail msg') else: print('inputed msgtype required 101|102') else: print('inputed msg can not be null') 企业微信收到主从延迟后的展示效果



【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有