• mysql ptarchiver


    官方文档:https://www.percona.com/doc/percona-toolkit/LATEST/pt-archiver.html

    pt-archiver 是 Percona Toolkit 中的一个工具。

    Percona Toolkit 是 Percona 公司提供的一个 MySQL 工具包。工具包里提供了很多实用的 MySQL 管理工具。

    譬如,我们常用的表结构变更工具 pt-online-schema-change ,主从数据一致性校验工具 pt-table-checksum 。

    毫不夸张地说,熟练使用 Percona Toolkit 是 MySQL DBA 必备的技能之一。

    pt-archiver
    usage:
    1.归档A库数据到B库做备份
    2.安全删除数据,不影响数据库性能,(但是不会回收碎片空)
    3.导出数据文件,方便load data回去
    4.合并数据
    官方文档地址:

    --no-delete          同步不删除原数据
    --purge                 删除数据
    --progress=i         每操作多少行输出一次处理信息
    --txn-size=i         一个事务操作多少行数据,默认1
    --limit=i            每次拿出来多少条数据,类似游标fetch,默认1。
    --replace             在归档的时候将insert into改成replace into
    --statistics        输出执行过程及最后的操作统计
    --where             归档或者删除数据需要满足的条件
    --source            源数据库的数据串,类似于h=localhost,u=root,p=pass,S=/data/mysql/mysql.sock,D=test,t=
    --dest                目标数据库的数据串,同上面
    --check-slave-lag=s  控制延迟,当延迟超过这个值暂停归档
    --bulk-insert          批量insert。load data file这种,效率会比普通insert快一倍
    --ignore            insert ignore 替代insert
    --replace            replace into
    --no-check-charset  不检查变吗
    
    #tips
    txn-size 不是越大越好,反而小一点会好,建议500
    使用--bulk-insert 的时候qps不会上升很多,但是会有很多慢查询,因为是load data file导致的满查询。
    --analyze
    指定工具完成数据归档后对表执行'ANALYZE TABLE'操作。指定方法如'--analyze=ds',s代表源端表,d代表目标端表,也可以单独指定。
    
    --ask-pass
    命令行提示密码输入,保护密码安全,前提需安装模块perl-TermReadKey。
    
    --buffer
    指定缓冲区数据刷新到选项'--file'指定的文件并且在提交时刷新。
    只有当事务提交时禁用自动刷新到'--file'指定的文件和刷新文件到磁盘,这意味着文件是被操作系统块进行刷新,因此在事务进行提交之前有一些数据隐式刷新到磁盘。默认是每一行操作后进行文件刷新到磁盘。
    
    --bulk-delete
    指定单个语句删除chunk的方式来批量删除行,会隐式执行选项'--commit-each'。
    使用单个DELETE语句删除每个chunk对应的表行,通常的做法是通过主键进行逐行的删除,批量删除在速度上会有很大的提升,但如果有复杂的'WHERE'条件就可能会更慢。
    
    --[no]bulk-delete-limit
    默认值:yes
    指定添加选项'--bulk-delete''--limit'到进行归档的语句中。
    
    --bulk-insert
    使用LOAD DATA LOCAL INFILE的方法,通过批量插入chunk的方式来插入行(隐式指定选项'--bulk-delete''--commit-each')
    而不是通过逐行单独插入的方式进行,它比单行执行INSERT语句插入的速度要快。通过隐式创建临时表来存储需要批量插入的行(chunk),而不是直接进行批量插入操作,当临时表中完成每个chunk之后再进行统一数据加载。为了保证数据的安全性,该选项会强制使用选项'--bulk-delete',这样能够有效保证删除是在插入完全成功之后进行的。
    
    --channel
    指定当主从复制环境是多源复制时需要进行归档哪个主库的数据,适用于多源复制中多个主库对应一个从库的情形。
    
    --charset,-A
    指定连接字符集。
    
    --[no]check-charset
    默认值:yes
    指定检查确保数据库连接时字符集和表字符集相同。
    
    --[no]check-columns
    默认值:yes
    指定检查确保选项'--source'指定的源端表和'--dest'指定的目标表具有相同的字段。
    不检查字段在表的排序和字段类型,只检查字段是否在源端表和目标表当中都存在,如果有不相同的字段差异,则工具报错退出。如果需要禁用该检查,则指定'--no-check-columns'--check-slave-lag
    指定主从复制延迟大于选项'--max-lag'指定的值之后暂停归档操作。默认情况下,工具会检查所有的从库,但该选项只作用于指定的从库(通过DSN连接方式)。
    
    --check-interval
    默认值:1s
    如果同时指定了选项'--check-slave-lag',则该选项指定的时间为工具发现主从复制延迟时暂停的时间。每进行操作100行时进行一次检查。
    
    --columns,-c
    指定需要归档的表字段,如有多个则用','(逗号)隔开。
    
    --commit-each
    指定按每次获取和归档的行数进行提交,该选项会禁用选项'--txn-size'。
    在每次获取表数据并进行归档之后,在获取下一次数据和选项'--sleep'指定的休眠时间之前,进行事务提交和刷新选项'--file'指定的文件,通过选项'--limit'控制事务的大小。
    
    --host,-h
    指定连接的数据库IP地址。
    
    --port,-P
    指定连接的数据库Port端口。
    
    --user,-u
    指定连接的数据库用户。
    
    --password,-p
    指定连接的数据库用户密码。
    
    --socket,-S
    指定使用SOCKET文件连接。
    
    --databases,-d
    指定连接的数据库
    
    --source
    指定需要进行归档操作的表,该选项是必须指定的选项,使用DSN方式表示。
    
    --dest
    指定要归档到的目标端表,使用DSN方式表示。
    如果该选项没有指定的话,则默认与选项'--source'指定源端表为相同表。
    
    --where
    指定通过WHERE条件语句指定需要归档的数据,该选项是必须指定的选项。不需要加上'WHERE'关键字,如果确实不需要WHERE条件进行限制,则指定'--where 1=1'--file
    指定表数据需要归档到的文件。使用类似MySQL DATE_FORMAT()格式化命名方式。
    文件内容与MySQL中SELECT INTO OUTFILE语句使用相同的格式,文件命名选项如下所示:
    '
    %Y:年,4位数(Year, numeric, four digits)         
    %m:月,2位数(Month, numeric (01..12))          
    %d:日,2位数(Day of the month, numeric (01..31))     
    %H:小时(Hour (00..23))                  
    %i:分钟(Minutes, numeric (00..59))            
    %s:秒(Seconds (00..59))             
    %D:数据库名(Database name)            
    %t:表名(Table name)                   
    
    例如:--file '/var/log/archive/%Y-%m-%d-%D.%t'
    '
    
    --output-format
    指定选项'--file'文件内容输出的格式。
    默认不指定该选项是以制表符进行字段的分隔符,如果指定该选项,则使用','(逗号)作为字段分隔符,使用'"'(双引号)将字段括起。用法示例:'--output-format=dump'--for-update
    指定为每次归档执行的SELECT语句添加FOR UPDATE子句。
    
    --share-lock
    指定为每次归档执行的SELECT语句添加LOCK IN SHARE MODE子句。
    
    --header
    指定在文件中第一行写入字段名称作为标题。
    
    --ignore
    指定为INSERT语句添加IGNORE选项。
    
    --limit
    默认值:1
    指定每条语句获取表和归档表的行数。
    
    --local
    指定不将OPTIMIZE和ANALYZE语句写入binlog。
    
    --max-lag
    默认值:1s
    指定允许主从复制延迟时长的最大值,单位秒。如果在每次获取行数据之后主从延迟超过指定的值,则归档操作将暂停执行,暂停休眠时间为选项'--check-interval'指定的值。待休眠时间结束之后再次检查主从延迟时长,检查方法是通过从库查询的'Seconds_Behind_Master'值来确定。如果主从复制延迟一直大于该参数指定值或者从库停止复制,则操作将一直等待直到从库重新启动并且延迟小于该参数指定值。
    
    --no-delete
    指定不删除已被归档的表数据。
    
    --optimize
    指定工具完成数据归档后对表执行'OPTIMIZE TABLE'操作。指定方法如'--analyze=ds',s代表源端表,d代表目标端表,也可以单独指定。
    
    --primary-key-only
    指定只归档主键字段,是选项'--columns=主键'的简写。
    如果工具归档的操作是进行DELETE清除时最有效,因为只需读取主键一个字段而无需读取行所有字段。
    
    --progress
    指定每多少行打印进度信息,打印当前时间,已用时间以及多少行进行归档。
    
    --purge
    指定执行的清除操作而不是归档操作。允许忽略选项'--dest''--file'进行操作,如果只是清除操作可以结合选项'--primary-key-only'会更高效。
    
    --quiet,-q
    指定工具静默执行,不输出任何的执行信息。
    
    --replace
    指定写入选项'--dest'指定目标端表时改写INSERT语句为REPLACE语句。
    
    --retries
    默认值:1
    指定归档操作遇到死锁或超时的重试次数。当重试次数超过该选项指定的值时,工具将报错退出。
    
    --run-time
    指定工具归档操作在退出之前需要运行的时间。允许的时间后缀名为s=秒,m=分,h=小时,d=天,如果没指定,默认为s。
    
    --[no]safe-auto-increment
    默认值:yes
    指定不使用自增列(AUTO_INCREMENT)最大值对应的行进行归档。
    该选项在进行归档清除时会额外添加一条WHERE子句以防止工具删除单列升序字段具有的具有AUTO_INCREMENT属性最大值的数据行,为了在数据库重启之后还能使用到AUTO_INCREMENT对应的值,但这会引起无法归档或清除字段对应最大值的行。
    
    --set-vars
    默认:
        wait_timeout=10000
        innodb_lock_wait_timeout=1
        lock_wait_timeout=60
    工具归档时指定参数值,如有多个用','(逗号)分隔。如'--set-vars=wait_timeout=5000'--skip-foreign-key-checks
    指定使用语句SET FOREIGN_KEY_CHECKS = 0禁用外键检查。
    
    --sleep
    指定工具在通过SELECT语句获取归档数据需要休眠的时间,默认值是不进行休眠。在休眠之前事务并不会提交,并且选项'--file'指定的文件不会被刷新。如果指定选项'--commit-each',则在休眠之前会进行事务提交和文件刷新。
    
    --statistics
    指定工具收集并打印操作的时间统计信息。
    统计信息示例如下:
    '
    Started at 2008-07-18T07:18:53, ended at 2008-07-18T07:18:53
    Source: D=db,t=table
    SELECT 4
    INSERT 4
    DELETE 4
    Action         Count       Time        Pct
    commit            10     0.1079      88.27
    select             5     0.0047       3.87
    deleting           4     0.0028       2.29
    inserting          4     0.0028       2.28
    other              0     0.0040       3.29
    '
    
    --txn-size
    默认:1
    指定每个事务处理的行数。如果是0则禁用事务功能。
    
    --version
    显示工具的版本并退出。
    
    --[no]version-check
    默认值:yes
    检查Percona Toolkit、MySQL和其他程序的最新版本。
    
    --why-quit
    指定工具打印当非因完成归档行数退出的原因。
    在执行一个自动归档任务时该选项与选项'--run-time'一起使用非常方便,这样可以确定归档任务是否在指定的时间内完成。如果同时指定了选项'--statistics',则会打印所有退出的原因。

    先初始化数据:

    mysqlslap -uroot -p -S /data/mysql/mysql.sock --number-of-queries=100000 --create-schema=test --concurrency=10 --query="insert into t(content,num) values(uuid(),rand()*1000);"
    Enter password:
    Benchmark
    Average number of seconds to run all queries: 11.877 seconds
    Minimum number of seconds to run all queries: 11.877 seconds
    Maximum number of seconds to run all queries: 11.877 seconds
    Number of clients running queries: 10
    Average number of queries per client: 10000
    ———————————————— 

    归档数据和删除数据

    根据条件删除数据
    #先看源表数据
    root@localhost:mysql.sock:[test]>select count(*) from t where id <= 20000;
    +----------+
    | count(*) |
    +----------+
    |    20000 |
    +----------+
    1 row in set (0.01 sec)
    
    #开始删除数据
    $ pt-archiver --source h=localhost,u=root,p=pass,S=/data/mysql/mysql.sock,D=test,t=t --where="id <= 20000" --progress=500 --statistics --txn-size=100 --limit=1000 --purge
    TIME                ELAPSED   COUNT
    2022-03-16T21:30:06       0       0
    2022-03-16T21:30:06       0     500
    2022-03-16T21:30:06       0    1000

    #通过上一步可以看到执行的时间,查询的时间,以及提交的时间

    
    

    #接下来去数据库查询
    root@localhost:mysql.sock:[test]>select count(*) from t where id <= 20000;
    +----------+
    | count(*) |
    +----------+
    | 0 |
    +----------+
    1 row in set (0.00 sec)

    
    

    #可以看到删除成功了
    #需要注意的一点,这里删除不会真正回收碎片空间,后边还是需要手动去analyze table或者optimize

     

    相对于之前的归档命令,这条命令额外指定了四个参数,其中,

    --bulk-delete:批量删除。
    --limit:每批归档的记录数。
    --commit-each:对于每一批记录,只会 COMMIT 一次。
    --bulk-insert:归档数据以 LOAD DATA INFILE 的方式导入到归档库中。
    看看上述命令对应的 General log 。
     

    不同归档参数之间的速度对比
     

    下表是归档 20w 数据,不同参数之间的执行时间对比。

    归档参数执行时间(s)
    不指定任何批量相关参数 850.040
    --bulk-delete --limit 1000 422.352
    --bulk-delete --limit 1000 --commit-each 46.646
    --bulk-delete --limit 5000 --commit-each 46.111
    --bulk-delete --limit 1000 --commit-each --bulk-insert 7.650
    --bulk-delete --limit 5000 --commit-each --bulk-insert 6.540
    --bulk-delete --limit 1000 --bulk-insert 47.273

    通过表格中的数据,我们可以得出以下几点:

    通过表格中的数据,我们可以得出以下几点:

    第一种方式是最慢的。
    这种情况下,无论是源库还是归档库,都是逐行操作并提交的。
    只指定 --bulk-delete --limit 1000 依然很慢。
    这种情况下,源库是批量删除,但 COMMIT 次数并没有减少。
    归档库依然是逐行插入并提交的。
    --bulk-delete --limit 1000 --commit-each
    相当于第二种归档方式,源库和目标库都是批量提交的。
    --limit 1000 和 --limit 5000 归档性能相差不大。
    --bulk-delete --limit 1000 --bulk-insert 与 --bulk-delete --limit 1000 --commit-each --bulk-insert 相比,没有设置 --commit-each。
    虽然都是批量操作,但前者会执行 COMMIT 操作 1000 次。
    由此来看,空事务并不是没有代价的。
    ————————————————
    原文链接:https://blog.csdn.net/Alinmei/article/details/123582625

    https://www.modb.pro/db/58571

    pt-archiver --source h=192.168.244.10,P=3306,u=pt_user,p=pt_pass,D=employees,t=departments --where "1=1" --bulk-delete --limit 1000 --commit-each --purge --primary-key-only
     

    命令行中的 --purge 代表只删除,不归档。

    指定了 --primary-key-only ,这样,在执行 SELECT 操作时,就只会查询主键,不会查询所有列。

    接下来,我们看看删除命令相关的 General log 。

    为了直观地展示 pt-archiver 删除数据的实现逻辑,实际测试时将 --limit 设置为了 3。

    # 开启事务
    set autocommit=0;
    
    # 查看表结构,获取主键
    SHOW CREATE TABLE `employees`.`departments`;
    
    # 开始删除第一批数据
    # 通过 FORCE INDEX(`PRIMARY`) 强制使用主键
    # 指定了 --primary-key-only,所以只会查询主键
    # 这里其实无需获取所有满足条件的主键值,只取一个最小值和最大值即可。
    SELECT /*!40001 SQL_NO_CACHE */ `dept_no` FROM `employees`.`departments` FORCE INDEX(`PRIMARY`) WHERE (1=1) ORDER BY `dept_no` LIMIT 3;
    
    # 基于主键进行删除,删除的时候同时带上了 --where 指定的删除条件,以避免误删
    DELETE FROM `employees`.`departments` WHERE (((`dept_no` >= 'd001'))) AND (((`dept_no` <= 'd003'))) AND (1=1) LIMIT 3;
    
    # 提交
    commit;
    
    # 删除第二批数据
    SELECT /*!40001 SQL_NO_CACHE */ `dept_no` FROM `employees`.`departments` FORCE INDEX(`PRIMARY`) WHERE (1=1) AND ((`dept_no` >= 'd003')) ORDER BY `dept_no` LIMIT 3;
    DELETE FROM `employees`.`departments` WHERE (((`dept_no` >= 'd004'))) AND (((`dept_no` <= 'd006'))) AND (1=1); LIMIT 3
    commit;
    
    
    # 删除第三批数据
    SELECT /*!40001 SQL_NO_CACHE */ `dept_no` FROM `employees`.`departments` FORCE INDEX(`PRIMARY`) WHERE (1=1) AND ((`dept_no` >= 'd006')) ORDER BY `dept_no` LIMIT 3;
    DELETE FROM `employees`.`departments` WHERE (((`dept_no` >= 'd007'))) AND (((`dept_no` <= 'd009'))) AND (1=1) LIMIT 3;
    commit;
    
    # 删除最后一批数据
    SELECT /*!40001 SQL_NO_CACHE */ `dept_no` FROM `employees`.`departments` FORCE INDEX(`PRIMARY`) WHERE (1=1) AND ((`dept_no` >= 'd009')) ORDER BY `dept_no` LIMIT 3;
    commit;

    在业务代码中,如果我们有类似的删除需求,不妨借鉴下 pt-archiver 的实现方式。

     
    --primary-key-only
    指定只归档主键字段,是选项'--columns=主键'的简写。
    如果工具归档的操作是进行DELETE清除时最有效,因为只需读取主键一个字段而无需读取行所有字段。

     

    归档和清理过期数据,都会把原表中的数据Delete掉,而大量Delete存在以下问题:

      1)对于MyISAM表,大的Delete操作,整个过程会lock表。

      2)  对于Innodb表,大的delete,导致一个长事务,使innodb性能下降,purge操作延迟,undo量大。

      3)导致从库延迟增大

    3、使用分块删除原来数据, 如:delete xxx order by pk limit 1000;

    这样删除比较整个删除好很多,但清理越来越慢。

    https://blog.51cto.com/u_14286115/5004760

    https://zhuanlan.zhihu.com/p/475302375

    https://blog.csdn.net/TIME_1981/article/details/126114797

    https://blog.csdn.net/m0_37389157/article/details/123533585

    https://blog.csdn.net/w892824196/article/details/126214823

    https://www.cnblogs.com/ivictor/p/16001965.html

  • 相关阅读:
    (拿来主义) SpringCloud | 第四篇: 断路器(Hystrix)
    (拿来主义) SpringCloud | 第三篇: 服务消费者(Feign)
    (拿来主义) SpringCloud | 第二篇: 服务消费者(rest+ribbon)
    (拿来主义) SpringCloud | 第一篇: 服务的注册与发现(Eureka)
    (拿来主义-10) Spring Boot中使用Swagger2构建强大的RESTful API文档(五)
    (拿来主义-9) Spring Boot构建RESTful API与单元测试(四)
    (拿来主义-8) Spring Boot属性配置文件详解(三)
    (拿来主义-7) Spring Boot工程结构推荐(二)
    springMVC配置文件路径问题
    实现可用的插件系统
  • 原文地址:https://www.cnblogs.com/youxin/p/16773592.html
Copyright © 2020-2023  润新知