将GaiaDB作为目标端 本文介绍目标端端为GaiaDB-S时如何配置DTS任务 前置条件 账号下有可用的GaiaDB-S实例(详情见 GaiaDB-S操作指南 ) 配置任务 进入DTS控制台界面。 点击 创建数据传输任务 按钮。 选择百度智能云数据库,接入类型选择GaiaDB-S,选择地域后下单。 创建完成后,在列表操作列点击配置任务进行配置。 点击实例ID下拉框选择目标端实例。
专线迁移Redis Cluster迁移到云数据库Redis企业集群版-一键反向 创建任务 接口说明 创建任务。
专线迁移Redis Cluster迁移到云数据库Redis标准版-数据校验 创建数据校验任务 接口说明 创建数据校验任务。
将Elasticsearch作为DTS目的端 1. 适用场景 本文适用于使用百度智能云 数据传输服务DTS (以下简称 DTS),将DTS已经支持的数据源迁移至Elasticsearch目标端中的场景。 2. 将Elasticsearch作为DTS目标端的限制 不支持结构迁移 。 增量同步不支持同步关系型数据库的DDL语句 。
大屏中过滤条件展示为图标 大屏中可以设置将过滤条件收起,展示为一个图标。在大屏的控制面板中进行配置。 开启后,大屏中会展示一个搜索图标(过滤条件组),点击该图标会弹出展示一个弹框,弹框中展示所有的过滤条件。可以在所有过滤条件变更操作完成之后,点击查询按钮再对大屏中的图表生效。 过滤条件的添加、删除、排序 编辑模式下,过滤条件弹框的右上角有一个「添加过滤条件」的按钮,在这里可以添加过滤条件。
专线迁移Redis Cluster迁移到云数据库Redis企业集群版-数据校验 创建数据校验任务 接口说明 创建数据校验任务。
将Kafka作为源端 1. 适用场景 本文适用于使用百度智能云数据传输服务DTS(以下简称 DTS),将源端为自建Kafka实例或者消息服务 for Kafka实例中的数据迁移至目标端为Kafka(含自建/消息服务)实例的场景。 2. 将Kafka作为DTS源的前置条件 Kafka版本需要在0.10及以上。
将MySQL作为目标端 DTS支持的Mysql数据类型 下表列出了使用 DTS 时支持的 Mysql 数据类型以及与 DTS 数据类型的默认映射。
从回收站中批量恢复实例 请求说明 使用以下代码可以从回收站中批量恢复实例,批量恢复仅支持后付费实例。 回收站中的预付费实例请通过续费实例接口恢复。 当前版本为V2。
数据转发到用户 Kafka 一、简介 在本教程中,您将学习到如何将 IoT Core 的设备消息通过『规则引擎』转发至 不同账户 下的百度消息服务 BMS 实例,可以实现跨账 户消息转发等需求。本文主要包括简介、场景描述、注意事项、操作步骤 4 部分内容,通过具体示例展示了相关使用流程。