通过大数据 BMR 服务使用 RapidFS MapReduce(简称“BMR”)是托管的一站式大数据平台,提供高可靠、高安全性、高性价比、易运维的分布式计算服务,涵盖 Hadoop、Spark、Hive、Flink、Presto、Druid等多种开源组件,并与百度智能云对象存储无缝衔接,助力企业轻松高效地处理海量数据。
使用DTS实现自建Redis标准版到百度智能云SCS for Redis标准版的数据迁移 1 概览 本文主要介绍自建 Redis 标准版实例和云数据库 SCS for Redis 标准版实例之间的数据迁移。
目前,不停服迁移有3种方案可以选择: 使用mysqldump工具 此方法只适用于开启GTID的Mysql,具体步骤如下: 使用与Mysql Server同版本的mysqldump工具,导出所有的库表数据: mysqldump –u dbuser –p dbpass -h dbhost -Pdbport -A > data.sql 在RDS上申请Super权限,通过RDS域名连接,并使用Mysql
runType 当前迁移任务的类型,目前支持的类型有如下几种: migration(既迁移库表结构也迁移数据) migration_schema (只迁移库表结构,并对表数据做快照) migration_data (只迁移数据,不迁移库表结构,前提是表快照已经完成) check (校验数据) drop_schema (删除目标实例上的数据库表) migration_mv (删除目标实例上的物化视图)
使用DTS实现目标端为Elasticsearch的数据迁移 概览 本文主要介绍通过DTS数据迁移功能从MySQL、Oracle等迁移至Elasticsearch。 需求场景 适用于使用百度智能云数据传输服务DTS(以下简称 DTS),将DTS已经支持的任意上游数据源(MySQL/Oracle等)中的数据迁移到目标端Elasticsearch实例中。 方案概述 使用限制 不支持结构迁移 。
至此,已完成 DTS 借助 rinetd 工具在专线网络下的任务配置,接下来按照 DTS 常规步骤进行操作,即可完成数据迁移。
用户数据导出 3.1 使用pg_dump导出用户数据 使用pg_dump工具从用户的PostgreSQL数据源中导出需要导入RDS实例中的数据文件(本步骤仅导出数据,不包括存储过程、触发器及函数)。
移除数据源 您可以在导入数据源后,对数据源进行移除。移除数据源会导致已导⼊的数据失效,但不会对对象存储BOS中的数据产生影响。 操作步骤 您可直接在左侧导航列中的【数据源】进行数据源导入操作,也可在实例详情页中将数据源导入当前缓存实例。 在数据源页面进行移除 在数据源列表中选择移除。 点击确认移除数据源。 在缓存实例页面进行移除 选择缓存实例进入实例详情页,在数据源管理列表中选择移除。
导入数据源 您可直接在左侧导航列中的【数据源】进行数据源导入操作,也可在实例详情页中将数据源导入当前缓存实例。 在数据源页面进行导入 绑定缓存实例 :您需要选择需要已创建完成的缓存实例。一旦创建之后,无法修改数据源所属的缓存实例。 数据来源: 您可以选择数据来源为本账号对象存储或其他账号对象存储。若您选择来源为其他账号对象存储,请填写AccessKey与SecretKey。