自建MySQL迁移至GaiaDB 本文主要介绍自建 MySQL 实例和云原生数据库 GaiaDB 实例之间的数据迁移。 前提条件 自建 MySQL 数据库版本为 5.1、5.5、5.6、5.7 或 8.0 版本。 说明 若源端是其他云平台上的 MySQL 数据库,您还需要确保该数据库已开通公网访问权限。
全量迁移任务重新启动后,为了保证数据的一致性,会先删除原来的数据然后再重新开始全量迁移,因此在全量迁移过程中,不要往目标数据库中写数据,如果写入重新启动后数据会被删除。 全量迁移过程中,为什么无法往源库中写入数据? 全量迁移过程中,如果迁移的表不存在主键或唯一键,为了保证数据的一致性,会对这些表进行只读锁定,只读锁定期间无法往这些表中写入数据,但是不影响其他有主键或唯一键的表。
x3C;table_name> 目标表名 可选参数 无 返回值 列名 说明 updated_rows 表当前更新行数 query_times 表被查询次数 row_count 表当前的总行数 updated_time 表上次更新时间 columns 收集过的列列表 trigger 收集触发方式 new_partition 是否有新分区首次导入数据 user_inject 用户是否手动注入了统计信息
在库表结构同步和全量同步阶段,请勿执行库或表结构变更的 DDL 操作,否则会导致数据同步任务失败。 其他限制 建议源和目标库版本保持一致,或者从低版本同步到高版本以保障兼容性。如为高版本同步至低版本,可能存在数据库兼容性问题。 执行数据同步前需评估源库和目标库的性能,同时建议业务低峰期执行数据同步。否则全量数据初始化时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升。
其他限制 一个 DTS 任务只能对一个数据库进行数据迁移,如果有多个数据库需要迁移,则需要为每个数据库创建数据迁移任务。 不支持包含时区类型列的时间戳。 复制多个同名但名称具有不同大小写的表(例如,table1、TABLE1 和 Table1)会导致无法预测的行为。 全量迁移会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标实例的表空间比源实例的表空间大。
基础信息数据集开放提供API的接口,以供外部数据导入;外呼数据集在每次外呼任务完成后实时接入此数据。数据集下分为维度数据和事实数据,维度数据存储与数据中心的各个业务领域相关的维度信息,事实数据存储大量的业务数据。 前提条件 有权限登录进入客悦客户洞察。 操作步骤 1、登录进入客悦客户洞察,点击【数据集管理】,在数据集管理下可看到系统预置的数据集。
FE节点的失败次数 集群:{集群ID} Count 将元数据镜像文件推送给其他FE节点的失败的次数 ImagePushFailed 将元数据镜像文件推送给其他FE节点的成功次数 集群:{集群ID} Count 将元数据镜像文件推送给其他FE节点的成功的次数 ImageWriteSuccess 生成元数据镜像文件成功次数 集群:{集群ID} Count 生成元数据镜像文件成功的次数 ImageWriteFailed
若您需要迁移增量数据,则需要创建 Kafka 集群以及 TiDB 数据库的相关组件,以采集 TiDB 数据库的增量变更数据 在库表结构同步和全量同步阶段,请勿执行库或表结构变更的 DDL 操作,否则会导致数据同步任务失败。 其他限制 在增量数据迁移过程中,DTS 仅支持从目标 Topic 中 ID 为 0 的分区获取数据。
其他限制 一个 DTS 任务只能对一个数据库进行数据迁移,如果有多个数据库需要迁移,则需要为每个数据库创建数据迁移任务。 不支持包含时区类型列的时间戳。 复制多个同名但名称具有不同大小写的表(例如,table1、TABLE1 和 Table1)会导致无法预测的行为。 全量迁移会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标实例的表空间比源实例的表空间大。
rivilege) 对象(Object) 说明(Notes) ALTER_PRIV 表(Table) BUILD INDEX 属于表 ALTER 操作 注意事项(Usage Notes) 目前只对倒排索引生效,其他索引如 bloomfilter index 不生效。