配置项 源数据库  内容精选
配置项 源数据库  更多内容
  • 数据接入之 TSDB - 物联网数据可视化 | 百度智能云文档

    数据接入之 TSDB 物可视提供了原生接入 TSDB 数据的能力。本文以一个存储着虚构天气数据的 TSDB 为例,演示了如何在物可视中接入 TSDB 数据,并使用“时序折线图”进行展示。 您需要有一个可用的 TSDB 数据库,可在 TSDB 控制台 确认。

    查看更多>>

  • 使用DTS实现目标端为Elasticsearch的数据迁移_解决方案实践

    方案概述 使用限制 不支持结构迁移 增量同步不支持同步关系型数据库的DDL语句 端数据为MySQL时,端表中的enum/set/timestamp类型字段只能将二进制信息传给下游,用户需要自行按照上游MySQL表结构解析其释义 不支持同步端数据的二进制(binary)类型数据 迁移前置条件 环境要求 已创建作为迁移端的数据实例,如:RDS for MySQL、自建MySQL、自建Oracle

    查看更多>>

  • 使用NimoShake将Amazon DynamoDB迁移至百度云DocDB - 数据传输服务DTS | 百度智能云文档

    输入vi nimo-shake.conf命令打开NimoShake的配置文件。 配置NimoShake,各配置说明如下: 参数 说明 示例值 id 迁移任务的ID,可自定义,用于输出pid文件等信息,如本次任务的日志名称、断点续传(checkpoint)位点信息存储的数据库名称、同步到目的端的数据库名称。

    查看更多>>

  • 云上VPC内数据 - 百度数据可视化Sugar BI | 百度智能云文档

    Host、端口号 :填写数据对应的 VPC 内网 IP 地址,以及端口号 数据库名 :需要连接数据中具体数据库名 Schema :PostgreSQL、SQL Server 等数据中,需要填写对应的 Schema 用户名、密码 :登录数据的用户名和密码 3、后续数据预览等步骤 创建完 VPC 内数据之后,后续的数据预览等操作和公网方式的数据库完全一样,详见 数据库 ;以及后续的创建数据模型

    查看更多>>

  • 使用DTS实现目标端为Elasticsearch的数据迁移 - 数据传输服务DTS | 百度智能云文档

    配置实例基本信息后支付购买DTS实例。 配置任务 回到DTS列表页后,可以看到刚刚购买的DTS实例,状态为【未配置】。 点击【配置任务】。 连接配置 首先配置数据传输任务的上下游连接信息,您可以按需选择云数据库实例或自建实例。 如上图所示。端连接信息中,您可以按需选择不同的数据源作为任务的源端,包括:RDS for MySQL、自建MySQL、自建Oracle等。

    查看更多>>

  • 质量作业 - 百度数据湖管理与分析平台EDAP | 百度智能云文档

    从左侧各数据类型中选择一个,并且选中一个数据库。单击 新建质量作业 进入创建质量作业页面。 选择一个表,输入作业名称,规则配置添加对应质量规则配置,单击 确认 按钮完成创建。 表一 配置说明 名称  含义 使用限制 表名称  选择一个需要进行质量校验的表。  作业名称  数据质量作业名称。 不大于30个字符。 扫描范围  选择全表扫描或条件扫描。

    查看更多>>

  • 元数据管理 - 百度数据湖管理与分析平台EDAP | 百度智能云文档

    填写配置后单击确认分区创建成功。 分区字段类型,当前支持的分区字段类型有: TINYINT,SMALLINT,INT,BIGINT,BOOLEAN,FLOAT,DOUBLE,VARCHAR,CHAR,STRING,BYTES,DATE,TIMESTAMP,DECIMAL; 3.分区路径:默认路径生成规则:路径类型+数据库路径+表路径+分区路径。

    查看更多>>

  • 将Kafka作为DTS目标端 - 数据传输服务DTS | 百度智能云文档

    在任务配置和对象映射部分与其他数据有些许不同。 4.1 任务配置 首先进入任务连接配置页,图中以源端为 百度智能云数据库RDS for MySQL 为例,选择端实例即可。 配置目标端连接信息时,首先要根据目标端Kafka集群的访问方式选择接入类型。 若目标端为百度消息服务主题,则接入类型选择百度消息服务,并选择相应的地域和主题ID。

    查看更多>>