因此DTS会默认将上游库表名转为全小写的索引名。 如:上游的dtsTEST.TESTTABLE表对应的下游Elasticsearch索引名为:dtstest_testtable。 完成对象映射配置后,点击【保存并预检查】,启动任务的前置检查。 5. 数据视图 5.1 业务场景 数据视图就是将源端数据源多张实体表的数据拼成一个视图,并保存到目标端Elasticsearch实例的同一个索引中。
增量迁移任务使用 变更数据捕获 (Change Data Capture,以下简称CDC)功能, 不同版本对CDC功能存在限制: 版本 Enterprise Standard 12 支持 14 支持 16 支持 支持 17 支持 支持 19 支持 支持 3.
将MySQL作为源端 1 适用场景 本文适用于使用百度智能云数据传输服务DTS(以下简称DTS),将自建MySQL实例或云数据库RDS MySQL实例中的数据迁移至DTS已经支持的数据目标端的场景。 2 将MySQL数据库作为DTS源的限制 如果源库中待迁移的表没有主键或唯一约束,且所有字段没有唯一性,可能会导致目标数据库中出现重复数据。
将Palo作为目标端 1. 适用场景 本文适用于使用百度智能云数据传输服务DTS,将DTS已经支持的数据源迁移至Palo目标端中的场景。 2. 将Palo数据库作为DTS目标端的限制 不支持结构迁移 。 3. 将Palo数据库作为DTS目标端的前置条件 3.1 数据库账号权限要求 目标端: 数据库 全量增量迁移 Palo数据库 LOAD_PRIV:对指定的库或表的导入权限 4.
使用BSC将Kafka中的数据导入Es 介绍 本文主要介绍通过 BSC 【百度流式计算服务】将数据从Kafka中导入到Es中。
将Kafka作为源端 1. 适用场景 本文适用于使用百度智能云数据传输服务DTS(以下简称 DTS),将源端为自建Kafka实例或者消息服务 for Kafka实例中的数据迁移至目标端为Kafka(含自建/消息服务)实例的场景。 2. 将Kafka作为DTS源的前置条件 Kafka版本需要在0.10及以上。
使用BSC将BOS中的数据导入Es 介绍 本文主要介绍通过 BSC 【百度流式计算服务】将数据从BOS【百度对象存储系统】中导入到Es中。
将GaiaDB作为目标端 本文介绍目标端端为GaiaDB-S时如何配置DTS任务 前置条件 账号下有可用的GaiaDB-S实例(详情见 GaiaDB-S操作指南 ) 配置任务 进入DTS控制台界面。 点击 创建数据传输任务 按钮。 选择百度智能云数据库,接入类型选择GaiaDB-S,选择地域后下单。 创建完成后,在列表操作列点击配置任务进行配置。 点击实例ID下拉框选择目标端实例。
将MySQL作为目标端 DTS支持的Mysql数据类型 下表列出了使用 DTS 时支持的 Mysql 数据类型以及与 DTS 数据类型的默认映射。
将GaiaDB作为源端 本文介绍源端为GaiaDB-S时如何配置DTS任务 前置条件 账号下有可用的GaiaDB-S实例(详情见 GaiaDB-S操作指南 )。 若需DTS任务具备高可用,需保证可用节点至少为2个。 配置任务 进入DTS控制台界面。 点击创建实例。 选择百度智能云数据库,接入类型选择GaiaDB-S,选择地域后下单。 创建完成后,在列表操作列点击配置任务进行配置。