修改迁移任务的当前位点 数据传输服务 DTS 支持修改传输任务增量写入模块的当前位点,帮助您在目标端写入数据时,跳过或再执行一次源端某段时间内的数据变更操作。 使用场景 需要将 增量同步 任务源端指定时间到当前位点的数据变更在目标端再执行一次时,您可以根据实际情况向前调整位点,以重复执行一次该时间段的数据变更。
适用场景 本文适用于使用百度智能云 数据传输服务DTS (以下简称 DTS),将DTS已经支持的数据源迁移至Kafka目标端中的场景。 2. 将Kafka作为DTS目标端的限制 增量同步不支持同步关系型数据库的DDL语句 。
更多行记录 ] 相关产品 数据传输服务DTS 提供数据迁移、数据同步、数据订阅于一体的数据库数据传输服务,在不停服的前提下轻松完成数据库迁移
自定义同步点 : 仅当迁移类型中只选择增量迁移时生效 。DTS将从指定的同步点开始增量同步。当未指定增量的自定义同步点时,DTS将默认从最新同步点进行增量迁移。若指定的自定义同步点失效时会导致任务报错,建议连接源端实例后执行 info replication ,将获取到的master_repl_offset值作为源端最新的增量同步点,offset示例:179123563。
适用场景 本文适用于使用百度智能云 数据传输服务DTS (以下简称 DTS),将DTS已经支持的数据源迁移至Elasticsearch目标端中的场景。 2. 将Elasticsearch作为DTS目标端的限制 不支持结构迁移 。 增量同步不支持同步关系型数据库的DDL语句 。
数据传输服务DTS任务状态升级通知 升级背景 百度智能云数据传输服务 DTS 产品将在 2021年4月28日 19:00-21:00 进行产品升级。为了提升产品体验,升级后数据传输任务将更新任务状态,便于您第一时间了解任务的最新进度,高效管理。 升级概述 数据传输任务(数据同步、数据迁移):新增三种任务状态,详情见下文。
数据传输服务器是否能连通源数据库检查 问题描述 数据传输任务开始之前,在预检查阶段需要检查DTS服务器是否能够连通源数据库,如果未联通的情况下,会报连接失败。 问题原因 数据传输服务器不能连通源数据库检查时,可能的原因如下: 数据库账号密码不正确。 未对所有IP授权。 设置了防火墙。 网络不通。 问题的处理方法 数据库账号密码不正确 查验源数据库账号密码,输入正确的数据库账号和密码后重新预检查。
同步点失效的处理策略 增量迁移阶段,若任务的同步点在源端 Redis 中已失效,DTS 支持选择不同的处理策略。 同步点失效时直接报任务失败 :用户可以自行清空目标端实例数据后,重新执行全量+增量迁移,适用于对数据一致性要求更高的业务场景; 同步点失效时自动重新开始全量和增量迁移 :DTS 在感知到同步点失效后,不清空目标端实例数据,直接重新开始执行全量+增量迁移。
仅支持增量同步,支持配置同步开始时间(Topic中最早Message、启动任务后新产生的Message、自定义起始时间)。 支持针对同一源端Kafka配置多个消费者消费数据。 4. 使用Kafka作为源 4.1 连接设置 4.1.1 创建任务 首先,在创建任务界面配置数据传输任务的部分上下游连接信息。
为开发者提供 Java语言的工具包 ,帮助开发者将DTS能力集成到自己的业务系统中。