方案概述 用户设备 → IoT Hub → BSC → IoT Hub → Rule Engine → TSDB → 小程序 配置步骤 一个完整的 Flink SQL 作业由 source 表、sink 表和 DML 语句构成。
从左侧各数据源类型中选择一个,并且选中一个数据库。单击 新建质量作业 进入创建质量作业页面。 选择一个表,输入作业名称,规则配置添加对应质量规则配置,单击 确认 按钮完成创建。 表一 配置项说明 名称 含义 使用限制 表名称 选择一个需要进行质量校验的表。 作业名称 数据质量作业名称。 不大于30个字符。 扫描范围 选择全表扫描或条件扫描。
在DTS管理控制台数据传输任务列表页,列表页的最上方会新增一个未配置状态的DTS任务,就是您刚刚创建的迁移任务,点击 配置任务 即可进行任务配置。如果页面跳转后未发现列表页出现新任务,建议等待一段时间刷新页面。 2. 配置DTS迁移任务 点击 配置任务 ,进入任务连接配置页。以下以源端为 自建数据存储 ,目标端为 百度智能云数据库 为例进行配置。
DTS迁移过程中对源数据库是否有影响,是否会删除源库中数据? DTS迁移过程中,对于BCC自建数据库或RDS实例走内网还是外网? DTS迁移过程中,是否支持DDL操作? DTS是否支持VPC内的BCC自建数据库或RDS实例的数据迁移? 同一个账号下的两个RDS实例下的不同数据库,能否进行数据迁移? DTS迁移过程中,是否会覆盖目标库中同名的表数据?
方案概述 用户设备 → IoT Hub → BSC → IoT Hub → Rule Engine → TSDB → 小程序 配置步骤 一个完整的 Flink SQL 作业由 source 表、sink 表和 DML 语句构成。
方案概述 服务器 → 自定义日志采集程序 → KAFKA → BSC → TSDB → Sugar BI 配置步骤 一个完整的 Flink SQL 作业由 source 表、sink 表和 DML 语句构成。
创建 SQL 模型 建立 SQL 模型非常简单,在报表或大屏的编辑模式下,单击某「图表」或「过滤条件」,控制面板的「数据」标签下,如下选择新建 SQL 模型: 在下图中,我们选择了一个「 数据源 」,然后编辑了一条简单的 SQL 语句:从 vote_records 表中查询 user_id 、 create_time 两个字段,最后我们对两个字段分别进行了建模描述,录入了它们的中文名称和数据类型。
创建一个DTS任务 DTS拆分任务1 ,配置源库及目标库信息,进入下一步。 在任务配置页的迁移类型中勾选全量迁移和增量同步(Table1_1 表结构已提前建好,无需结构迁移)。由于在线数据拆分的源端和目标端数据库经常为线上业务使用的数据库,为了不在全量迁移时对数据库造成过大压力,推荐您开启 限制传输速度 的选项并对全量迁移阶段设置合理的限速。 配置 任务1 的对象映射规则。
Trino Trino Trino(即原PrestoSQL)是一个开源的分布式SQL查询引擎,支持联邦查询,可以在一条SQL中直接查询多个不同的数据源,适用于交互式分析查询。 创建Trino集群 登录BMR界面,点击【创建集群】,在集群类型中选择trino镜像,在Trino元数据设置中,有EDAP和DEFAULT两种方式供选择。使用EDAP管理Trino元数据,需要用户已有EDAP产品使用权限。
支持所选数据库操作权限,支持针对库、表、字段进行授权,授权项: 字段 字段说明 读 可读取已选数据库 写 可以增加、删除和修改数据 新建 可以在该库建表 修改 可以修改库下所有表结构 删除 可以删除库下所有表 管理 以上所有,此外还可以对该库/表进行编辑、权限审批、权限授予操作 用户授权 支持按照用户维度查看元数据权限情况,修改用户的权限范围、权限有效期,调整用户密级等权限管理操作。