限制说明 应用限制 类型 说明 源端限制 待同步的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。 如同步对象为表级别,单次同步任务支持的表数量有限,当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待同步的表,分批配置多个任务,或者配置整库的同步任务。
RESTORE RESTORE Description 该语句用于将之前通过 BACKUP 命令备份的数据,恢复到指定数据库下。 该命令为异步操作。提交成功后,需通过 SHOW RESTORE 命令查看进度。 仅支持恢复 OLAP 类型的表。
ENGINE类型 说明: ENGINE默认为olap,也就是由PALO提供存储支持,也可以选择mysql,broker。 mysql类型用来存储维表,由用户自己维护,方便修改。查询的时候,PALO可以自动实现mysql表和olap表的连接操作。
同一数据库下只能有一个正在执行的 BACKUP 或 RESTORE 任务。 可以将仓库中备份的表恢复替换数据库中已有的同名表,但须保证两张表的表结构完全一致。表结构包括:表名、列、分区、Rollup 等等。 可以指定恢复表的部分分区,系统会检查分区 Range 或者 List 是否能够匹配。 可以通过 AS 语句将仓库中备份的表名恢复为新的表。但新表名不能已存在于数据库中。分区名称不能修改。
购买数据迁移任务 进入 DTS 购买页面 。 选择数据迁移任务的参数配置,详细说明请参见下表。 参数 说明 源端位置 选择迁移链路的源端位置,支持百度智能云数据库及自建数据存储。 源端接入类型 选择迁移链路的源端接入方式。 源端数据类型 选择迁移链路的源端数据类型。 源端地域 选择迁移链路的源端所属的地域,购买后不支持更换地域,请谨慎选择。
与普通 String 类型存储的 JSON 字符串相比,JSON 类型有两点优势 数据写入时进行 JSON 格式校验 二进制存储格式更加高效,通过 json_extract 等函数可以高效访问 JSON 内部字段,比 get_json_xx 函数快几倍 注意: 在 1.2.x 版本中,JSON 类型的名字是 JSONB,为了尽量跟 MySQL 兼容,从 2.0.0 版本开始改名为 JSON,老的表仍然可以使用
状态列显示“前置检查失败”,点击旁边的按钮查看失败原因并修改,重新启动检查直到成功后再启动迁移任务。 前置检查项详细解释参见: 数据迁移操作指南-预检查 3.启动迁移 前置检查通过后,可以在任务列表页启动任务。 4.检查Kafka集群数据 任务启动后,DTS将从源端数据库实例拉取到 全量基准 或 增量变更 数据,并以固定的格式写入目标端Kafka集群的指定Topic中。
在线表结构修改 支持在已导入数据的情况下修改表结构,包括增加列、删除列、修改列类型和改变列顺序等操作。变更操作不会影响当前数据库的查询和写入操作。 丰富的生态 PALO可以方便的导入存储在对象存储、HDFS或Kafka中的数据。用户也可以通过Spark来直接查询PALO中存储的数据。
BOS 有标准存储-多AZ、标准存储、低频存储-多AZ、低频存储、冷存储和归档存储 6 种存储类型,每种存储类型单价不同。 低频存储、冷存储和归档存储在读取和使用场景上会有一定限制,如存在最小存储周期、数据取回费用等,请在购买前先查看 分级存储 ,以明确合适的存储类型。 低频存储-多AZ的 Object 最小存储时间为 30 天,低于 30 天的按照 30 天收取存储费用。
限制说明 应用限制 类型 说明 源端限制 待同步的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。 如同步对象为表级别,单次同步任务支持的表数量有限,当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待同步的表,分批配置多个任务,或者配置整库的同步任务。