MySQL大数据量高速迁移,500GB只需1个小时
01 传统的迁移方案
目前,数据迁移主要分为逻辑迁移和物理迁移,逻辑迁移主要有mysqldump、mydumper ,物理迁移主要有XtraBackup。对于这类导入导出和拷贝文件的传统迁移方案,在迁移中会存在一些问题:
-
要求业务停机,在迁移过程中,通过需要停止服务,保持静态迁移数据,由于迁移数据量大,需要的迁移时间较长,这也意味着业务停机时间较长。 -
迁移时间久,对于mysqldump的逻辑迁移,单线程导出表,迁移时间长。 -
可靠性差,导出异常后,不支持断点能力,在迁移过程中,如果遇到数据库、软件或硬件任何问题导致的任务中断,都需要从头迁移,迁移难度高。 -
保障能力弱,迁移期间,不能提供完善的观测跟干预能力;同时,比较缺乏结构及数据对比能力,缺乏质量保障体系,可能影响迁移成功性。
02 领先的迁移方案
NineData 提供的数据复制同时包含了数据迁移和数据同步的能力,在不影响业务的前提下,提供了高效、稳定、可运维的大数据量迁移能力。经实测,在源及目标实例同城情况下,500GB数据的迁移,只需1个小时,平均迁移速度142MB/s。
通过对 MySQL 大数据量迁移的性能测试,和传统迁移比,NineData 数据迁移的优势有:
4. 数据质量保障:NineData 还提供了对比功能,包含数据和结构的对比,以及全量、快速(抽样)和不一致复检的对比方式,并且也支持不同的对比频率。在迁移或复制结束后,通过数据和结构对比,能有效的保障数据的一致性。
NineData 在提供强大迁移能力的同时,也保证了使用的简单性,只需要1分钟就能完成迁移任务的配置,实现完全自动化的数据迁移过程。下面我们来看下整个任务的配置过程:
▶︎ 配置迁移链路
1. 配置任务名称,选择要迁移的源和目标实例。
3. 根据需要,选择合适的冲突处理策略。
选择迁移对象:针对不同粒度选择迁移对象,也可以选择部分迁移对象。
配置映射和过滤规则:可自定义迁移的库名、表名和按照不同的过滤条件进行多表的部分数据迁移,也可以针对表的列名进行映射和部分列迁移。
通过丰富的检查项,保证了迁移任务的稳定性;通过开启数据对比,保证了迁移后数据的一致性。到此,我们就完成了一个高性能迁移任务的配置。
同时,为了提供更好的迁移体验,NineData针对迁移过程提供了完善的观测、干预能力。其不但提供对象迁移的详细状态、进展、详情,还通过监控和日志透露后台线程的内部执行情况,帮助用户全方位追踪迁移进展。同时,还针对运行过程中可能出现的异常情况,提供基础诊断能力,及修复、跳过、移除等多种修复策略和迁移限流能力,让用户能够自主快速得诊断并修复链路,保障迁移稳定性。
03 总结
NineData 提供的高效、快速、稳定的MySQL大数据量迁移能力,很好的补充了传统迁移方案的不足。当前,NineData 已经支持数十种常见数据库的迁移复制,同时,除了SAAS模式外,还提供了企业专属集群模式,满足企业最高的数据安全合规要求。目前,NineData已在运营商、金融、制造业、地产、电商等多个行业完成大规模应用实践。如果您感兴趣的话,可以登录官网https://www.ninedata.cloud/dbmigration,立即开始免费使用。
NineData是新一代的云原生智能数据管理平台,包含了数据复制、SQL开发、数据备份以及数据对比等多种功能。NineData采用领先的云原生与AIGC技术,为云与AI时代的架构设计提供了智能数据管理平台。作为业界首个支持跨云和本地IDC无缝打通的平台,能够帮助客户轻松完成数据上云、跨云数据实时传输、ETL、数据备份、企业级智能SQL开发、数据库研发规范、生产变更以及敏感数据管理等功能,从而让客户的数据使用更加安全高效。